haebbmaster
Sprechstundenhilfe bei Dr. Nope
Der Sinn von Fake News ist nicht die Fake news selbst, sondern dass die Leute einfach überhaupt niemandem mehr glauben. Schon gar nicht der echten News. Die KI scheint ein guter Baustein dazu zu sein.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: This feature may not be available in some browsers.
es geht vermutlich darum, dass es nach dem Gefühl einiger Leute langsam Zeit wäre für die Asimov'schen Robotergesetze ... aber es ist noch nicht gelunden, diese anständig zu implementieren (abgesehen von ein paar primitiven Zensurfiltern und Bias-Anpassungen).Man gibt die Anweisung "at all costs". Und dann wundert man sich, dass die KI solchen Text ausgibt? Was erwarten die Leute? Dass die KI sagt: "Sorry, I can't do that, Dave?"
Sofür eine ki spricht, dass sie besser als google funkioniert.
Ja, du kannst sogar den regulären schon so etwas wie ein Urteil abringen.Gibt es schon KI-Software, die Musik "hören" und analysieren kann?
Das mußt Du mir erklären. Vor allem das "selbst anfängt". Das Verändern von Gewichten nach mathematischen Regeln hat meiner Meinung nach nämlich sehr wenig mit "selbst anfangen" zu tun, falls es irgendein NN Algoryhtmus gibt, der darüber hinausgeht, würde ich sehr gerne mehr darüber lernen.dass die KI selbst anfängt Algorythmen zu vernetzen...
au ja, und dann für Battles als Plugin ins Forum integrieren. So spart man sich die umständliche Abstimmphase.zB kann man Gemini darum bitten und bekommt dann auch ein Ergebnis.
Wenn mir jemand auf der Straße etwas erzählt überprüfe ich das immer zu Hause. Da guck ich dann auch ob die Meldung nicht nur irgendwo ganz alleineDer Sinn von Fake News ist nicht die Fake news selbst, sondern dass die Leute einfach überhaupt niemandem mehr glauben. Schon gar nicht der echten News. Die KI scheint ein guter Baustein dazu zu sein.
Würde wirklich zu weit führen dir das hier zu erklären...Das mußt Du mir erklären. Vor allem das "selbst anfängt". Das Verändern von Gewichten nach mathematischen Regeln hat meiner Meinung nach nämlich sehr wenig mit "selbst anfangen" zu tun, falls es irgendein NN Algoryhtmus gibt, der darüber hinausgeht, würde ich sehr gerne mehr darüber lernen.
goorooj hat dazu vor einer Weile etwas kluges gesagt, das habe ich mir gemerkt:Der Sinn von Fake News ist nicht die Fake news selbst, sondern dass die Leute einfach überhaupt niemandem mehr glauben. Schon gar nicht der echten News. Die KI scheint ein guter Baustein dazu zu sein.
Das galt schon immer und jetzt gilt es noch mehr.Wissen ist jetzt die Fähigkeit, dort Wahrheit von Fälschung, Fakten von Geschwurbel unterscheiden zu können und dabei hiltft uns... nur unser erlerntes, erlebtes Wissen.
Die Robotergesetze zu implementieren halte ich für schwierig bis unmöglich.es geht vermutlich darum, dass es nach dem Gefühl einiger Leute langsam Zeit wäre für die Asimov'schen Robotergesetze ... aber es ist noch nicht gelunden, diese anständig zu implementieren (abgesehen von ein paar primitiven Zensurfiltern und Bias-Anpassungen).
Und man sammelt noch heute. Jeder Unfall wird von den Luftfahrtbehörden untersucht. Gegebenenfalls werden Abläufe, Technik oder das Training angepasst. Das wird bei autonomen Robot-Fahrzeugen oder Lieferdrohnen nicht anders sein.Jetzt werden die ersten Erfahrungen mit KI gesammelt... genauso wie damals als das Fliegen neu war. da wusste man auch noch nicht was alles passieren kann und musste Erfahrungen sammeln.
Du kannst es, richtig.Heute geht das.
Mir erzählt jemand was und ich kann es nachprüfen.
Zumindest nichts Geprüftes. Da behauptet zuletzt also ein Webware-Hersteller oder lanciert Testberichte, dass eine KI Feedback zu meiner Mucke geben kann. Bämm, Link ins Forum erbrechen, Eindruck machen, sich gar ganz toll fühlen. Was soll das? Selber probiert? Upload and AI-Feedback or it ain't happen. Es würde mich schon interessieren, ob Gemini merkt, wenn ich ihm ein Song vorwerfe, der kein Song ist, sondern eine Freifeldaufnahme oder so. (Sagen wir, vom örtlichen Stadtteich, aber dass sie das erkennt, sollte man nicht verlangen). Kann das jemand für mich machen, bitte? Bin gerade selber zu faul, aber wenn es mir wirkich unter den Nägeln brennt, muss ich mal über meinen Schatten springen, werd ich mal gucken, was Gemini zu meiner missratenen, letztlich nicht eingereichten "Spoken Word Challenge"-Kontribution meint.
Ja, stimmt! selbst recherchieren kann ich es gar nicht. Ich müßte in Kriegsgebiete fahren und vorher in eine Zeitmaschine steigen um wirklich zu sehenAber nimmst du dir auch immer die Zeit? Wahnsinn, wie viel du wohl davon hast, wenn du wirklich alles nachprüfst, selbst zu Themen, die dich gar nicht interessieren.
Ja, ....gewisses Einschätzungsvermögen für Dinge ist wichtig. Ich denke das habe ich. Aber genau das wiord durch KI ja verlorengehen wie manche prophezeien.Du kannst es, richtig.
So gut wie alle Roboterstories von Asimov befassen sich genau damit, warum sich die Gesetze nicht oder nicht sinnvoll implementieren lassen.Die Implementierung müßte etwas sein, dass ein Roboter nicht erst lernen muß. Ein Instinkt wie der Greifreflex eines Babies oder wie Blinzeln, wenn uns etwas vor's Auge fliegt. Hartcodieren in einer der üblichen Programmiersprachen oder mittels eines Expertensystems scheidet aus, weil sich so nur sehr begrenztes Weltwissen unterbringen läßt.
ja gut - das könnte ich aber unter jeden hier geposteten Track kopieren und läge so gut wie nie verkehrt.
False-Positive-Tests gehören denke ich dazu, möchte man die Qualität einer ML/NN-Implementierung bzw. eines Trainings testen.Die Bewertung eines Songs ist doch primär abhängig vom Prompt den du eingibst,
Für Fieldrecording macht ein Prompt wie der auf der verlinkten kein Sinn.
Würde wirklich zu weit führen dir das hier zu erklären..
Wenn ein NN den Menschen irgendwas antun kann, dann muss es auf eine API zugreifen um etwas in der realen Welt auszulösen. Selbst wenn es das NN eigenen Code schreibt und dieser ausgeführt wird, ist dies der Fall. Meiner Meinung nach sollte es möglich sein die API-Calls durch ein zweitens NN oder ein andere Tool darauf zu überprüfen, ob durch die Ausführung des Calls ein Mensch zu schaden kommt.Die Robotergesetze zu implementieren halte ich für schwierig bis unmöglich.
In einem neuronalen Netz ist ja nichts hartcodiert. Man müßte erst die Stellen in den Gewichten der Neuronen finden, die "Mensch", "Roboter", "verletzen" usw. codieren, um dort Sperren einzubauen. Nur wird das nicht eine Stelle sein, sondern hunderte oder tausende. Ich bin sehr skeptisch, ob sich das technisch verwirklichen läßt. Dem Gendanken eines lernfähigen Systems widerspricht das auch.
schwierig wird esMeiner Meinung nach sollte es möglich sein die API-Calls durch ein zweitens NN oder ein andere Tool darauf zu überprüfen, ob durch die Ausführung des Calls ein Mensch zu schaden kommt.
Für mich klingt das gerade so, als vermischt Du die moralischen Fragen des Trolly-Problems mit der technischen Frage, wie überwacht werden kann, dass ein NN bestimmte Vorgaben nicht überschreitet, die Menschen verletzten können. Mir geht es nur darum, dass ich denke, dass die technische Seite dadurch gelöst werden kann, dass eine höhrere Kontrollinstanz eingeführt wird, welche die Aktionen der starke, selbstoptimierenden KI überwacht und unterbinden kann. Festlegen, was unterbunden wird, müssen dabei immer noch Menschen. Jetzt könnte man zwar argumenten, dass die selbstoptimierende KI evtl. so kreativ wird, dass sie Dinge unternimmt, die die simplere Kontrol-KI nicht durchschaut, aber wenn wir einem autonomen System ausgehen (also z.B. Roboter) wird dieser sicherlich erstmal die naheliegendere Varianten auswählen, wenn es bewusst Menschen schaden will, und daher früh genug lahmgelegt werden können.schwierig wird es
a) bei der Definition und Bewertung von Schaden (direkt/indirekt, Körperlich/seelisch/Reputation, dauerhaft/vorübergehend)
b) bei der Gewichtung (da eine Aktion meist bestimmten Menschen(gruppen) zum Vorteil, und anderen zum Nachteil gereicht - siehe Politik)
c) bei der Unterscheidung zwischen kurzfristigem und langfristischen Schaden
Das Problem ist m.E. nicht auf dieser Ebene lösbar. Bestenfalls wird man (bei KI, die autonome Hardware steuert) unmittelbare physische Schädigungen minimieren können (siehe selbstfahrende Autos), aber ehisch-moralische bzw. weltanschauliche Bewertungen wird eine KI nicht zufriedenstellend für alle Standpunkte bewerten und einordnen können. Klar bekommt man durch Gewichtung und Sperren eine KI mit "wokem" oder "based" (oder sozial vs. soziopathischem) Bias hin, aber viel mehr wird m.E. nicht gehen. Wie das mit einer starken, selbstoptimierenden KI aussehen wird, wird man sehen - im Best Case verhält sich diese wie ein Mensch, und man wird sie in gewissem Rahmen "erziehen" bzw. ausbilden können. Ausreißer und unerkannte Gefährder wird es (wie beim Menschen) vermutlich dennoch geben.