KI Gefahr für die Menschheit?

dass die "Bilder" von Menschen, die KI generiert, überweigend auf "Menschenbildern" beruht, die den Vorstellungen weißer Mittelschichtsamerikaner Ü40 entspricht.
was - wenn es der Fall wäre - dann natürlich am zugrundeliegenden Trainingsmaterial liegen dürfte, dass diesen Typus überrepräsentiert enthält. Wobei sich allerdings die Frage stellt, ob das nicht zu erwarten wäre, und eine - sagen wir mal - koreanische KI nicht überwiegend koreanische Mittelschichtsmenschen (die ganz reichen und ganz armen dürften ja seltener abgelichtet werden) wiedergeben würde.

Man steuert natürlich dagegen - das dazu führt, dass eine Zeitlang bei Prompts wie "Samurai aus dem 16. Jahrhundert" oder "Wehrmachtssoldaten vor Stalingrad" durchaus dunkelhäutige Leute im Ergebnis vertreten waren (k.a. ob das noch der Fall ist).

Sofern es nicht um Bildgeneratoren sondern um ChatGPT und co geht: Auch hier spielt natürlich das Trainingsmaterial die größte Rolle, und Material dass von "westlichen" Mittelschichtlern produziert wird, dürfte auch in diesem Fall überrepräsentiert sein. Für andere Ergebnisse müsste man z.B. afrikanische oder südasiatische Publikationen verstärkt mit den den Trainingspool aufnehmen, aber das wäre natürlich auch wieder ein artifizieller Bias.
 
Zuletzt bearbeitet:
eine KI wird nie verstehen, was es in der Realität bedeutet, wenn Mann oder Frau sich 10 Minuten genussvoll (oder als Kompensation) einen von der Palme wedelt
vermutlich nicht, aber es mag andere Dinge geben, die eine KI "genussvoll" zelebrieren könnte. Man muss ihr dazu nur ein entspr. Belohnungszentrum verpassen.

Übrigens gibt es Verschwörungstheoretiker, die eine AGI sogar schon drei Jahre früher erwarten: https://ai-2027.com
 
mir ist das auch wurscht. ich kenn dich nicht und du könntest mir was vom bär erzählen.

bei google bin ich mir ziemlich sicher dass das überprüft wurde.
Das ist eine weitere Gefahr der KI. Die Digitalisierung senkt die Bereitsschaft sich sozial Mühe zu geben (Wie ich, oben bei dir. Sorry!) und sich real auseinanderzusetzen.

By the way: Ich würde dich sehr gerne einmal persönlich kennenlernen. Kein Witz, keine Anbiederung, keine Erzählung vom Bär. Mich interessieren Menschen halt mehr, als Ergebnisse.
 
Zuletzt bearbeitet:
Man muss ihr dazu nur ein entspr. Belohnungszentrum verpassen.
Du meinst biochemische Komponenten, die ins Rechnersystem integriert sind und bei Dysfunktion die Leistung herabsetzen? Wer definiert, was Leistung ist? Wenn ohne Einbindung Biochemischer Prozesse: Wer definiert, wann/wie die algorithimische Simulation eines menschlich geprägten und genetisch vorbestimmtem (nicht rein animalischen!) Belohnungssystems einem "echten" menschlichen Belohnungssystem gleichwertig ist? Nach welchen Kriterien geschieht diese Einigung auf entsprechende Prämissen?

Das ist kein Gelaber. Es geht um Werte.
 
Dass eine heutige KI nichts versteht macht es irgendwie noch erschreckender. Man muss also nicht mal was vom Fach verstehen um uns in vielen Disziplinen der Kreativität zu schlagen. Da haben wir auch nicht gerade die Goldmedaille für verdient.

Früher wurden irgendwie nur mechanische Sachen automatisiert nun gibt es auch viel Geistiges vom Fließband und oft schon in einer Qualli die ein Normalsterblicher nie erreicht.
 
Du meinst biochemische Komponenten
warum biochemisch?

Wer definiert, wann/wie die algorithimische Simulation eines menschlich geprägten und genetisch vorbestimmtem (nicht rein animalischen!) Belohnungssystems einem "echten" menschlichen Belohnungssystem gleichwertig ist?
warum muss es "gleichwertig" sein? "konzeptionell Ähnlich" würde mir hier auch reichen.

Die Frage wäre eher, warum man so etwas implementieren wolle: Da könnte ich mir durchaus vorstellen, dass man solche Mechanismen zur Kontrolle von KI einsetzt. Nach dem Schema: "tu was wir dir sagen, sonst gibt es kein Leckerli". 🤷‍♂️
 
Man muss also nicht mal was vom Fach verstehen
Kann man sagen: KI schafft kulturell entstandene Fächer ab. Und damit menschliches Fachwissen. ?

Was wol passiert: Es erzeugt eine Vorstellung, die "Wissen" als einen großen, vernetzen Pool beschreibt, universell sozusagen, der kategorisch abgefragt wird und durch die likes bei Ergebnissen eine virtuelle statt reale Wertigkeit dieser Kategorien erzeugt.
Die Wahrnehmung, Deutung und Bewertung von Information wird komplett umgebaut. Auch neuronal bei uns im Kopf mit der Zeit.

Was Fachwissen angeht: Es geht darum, das Narrativ zu schlucken, dass dieser Umbau die Menschheit voranbringt.
 
Zuletzt bearbeitet:
Laufen nicht alle bekannten, real existierenden Belohnungssysteme biochemisch (also organisch) ab?
ja - ebenso wie bisher jede bekannte Intelligenz. Wenn wir jetzt beginnen, künstliche Intelligenz auf Basis von Elektronik herzustellen, wäre es ja logisch, auch die Satellitensysteme oder sonstigen Bestandteile elektronisch umzusetzen bzw. zu simulieren. 🤷‍♂️

... was übrigens nicht heißt, dass es keine hybriden Systeme aus biologischen und elektronischen Komponenten geben kann. Ich gehe sowieso davon aus, dass die Unterschiede in Zukunft immer mehr verschwimmen werden (sofern sich die Menschheit und ihre elektronischen Nachfolger nicht vorher selbst auslöschen).
 
Das Schlimme ist irgendwie dass man sich bei keinerlei Content mehr sicher sein kann wie viel KI da mitgewirkt hat. Ich glaube auch dass dies zu einem Problem führen wird, und zwar dann wenn neue KIs mit altem KI-Content trainiert werden. Deswegen wird es irgendwann sehr wertvoll sein KI-freie Sachen zu haben, die noch nie das Internet gesehen haben.
 
wäre es ja logisch, auch die Satellitensysteme oder sonstigen Bestandteile elektronisch umzusetzen bzw. zu simulieren. 🤷‍♂️
Ist Logik automatisch klug?

Wenn der Mensch etwas kann, dann macht er es auch.
Jede dadurch entstehende Beängstigung wird weg-geframed und wegerzählt. Früher übernahm das eine konzertierte Propaganda. Heute wird das durch vereinfachende Narrative in den asozialen Medien "erledigt".

Erledigt.

Ein angemessenes Schlusswort, erstmal. Für mich zumindest.
 
Ist Logik automatisch klug?
nein, das sind unterschiedliche Skalen. Ich meinte auch nur, dass es logisch wäre, nicht dass es klug wäre.

Andererseits wäre es vielleicht klug (im Sinne von ökonomisch), gleich menschliches Gehirngewebe in Tanks zu züchten und zu trainieren, statt künstliche neuronale Netzwerke in Software zu implementieren - ob es ethisch vertretbar wäre, steht natürlich auf einem anderen Blatt. ;-)
 
Andererseits wäre es vielleicht klug (im Sinne von ökonomisch), gleich menschliches Gehirngewebe in Tanks zu züchten und zu trainieren, statt künstliche neuronale Netzwerke in Software zu implementieren
Da wird sogar gemacht, man kann so ein biologisches neuronales Netz kaufen., z.B. den CL1
 


Zurück
Oben