Ich mache mal ein Fass auf und gehe dabei gleichzeitig mal auch wirklich ontopic. Bevor KI eine Gefahr für die Menschheit wird stehen ja auch erst einmal andere Probleme. Wie gehen wir mit der sukzessive wachsenden Arbeitslosigkeit um? Also wer die letzte Nvidea Show gesehen hat wird bemerkt haben, Robotik und Ki werden gute Freunde sein. Elon baut den Optimus bestimmt nicht nur für sein Showcase, die werden über kurz oder lang zunächst mindestens 90% der humanoiden Arbeitskräfte ersetzen, meine Prognose ist 2035.
Als erstes werden die Kreativen Zeit haben sich in ihren Nischen einen darwinistischen Kampf zu liefern, dann der Servicebereich, dann das produzierende Volk, dann die Ärzte noch vor den Psychologen (puh, also ich gehöre da dann doch noch zu den sichereren Kandidaten) und am letzten Ende die Politiker, DANN sind wir wirklich in Gefahr spätestens. Das wird an einem Punkt zu existentiellen Auseinandersetzungen führen wenn wir keine Alternativideen entwickelt haben, weg vom Kapitalismus zur...ja zu was....gute Utopien sind rar....lernen und forschen um des Wissens willen vielleicht, ich habe in den 90gern schon von Sklavenhaltergesellschaften inspirierten Gesellschaftsstrukturen gefaselt in denen die Robotik der neue Sklave ist z.B., dabei habe ich Intelligenz noch gar nicht in Betracht gezogen.
Was heißt das, wir müssen auf jeden Fall einen Kompromiss finden (so in etwa etwas zwischen Star Trek und Matrix, wo es ja auch mit dem Roboter B1-66er angefangen hat, dessen Sein ja auch größer war als seine Teile (bigger), also bis zu dem Zeitpunkt war alles "gut"), unreguliertes und unlimitiertes einfachmachen wird in einer Dystopie enden, ganz ganz sicher, call me Spinner, die Meisten haben meiner Meinung nach immer noch nicht verstanden was wirkliche Intelligenz bedeutet, eine Intelligenz, ich streiche hier bewusst das "künstliche", die sich exponentiell und im nächsten Schritt auf Grund ihrer Beschaffenheit nahezu unlimitiert entwickelt, mit allem was dazu gehört, dann sehe ich keinen Nutzen mehr von Menschen, mutmaßlich auch anderen Lebewesen für diesen neuen Superpredator, im Glücksfall wird noch was davon geduldet solange es nicht parasitär ist im Sinne von Ressourcenkonkurrenz oder es gibt auf einmal Organismen, die sich von Strom ernähren oder ähnliches falls es nicht schon sowas gibt, soll ja jetzt auch Pilze geben die gut auf Radioaktivität reagieren, gibt ja demnächst auch massig mehr Atomkraftwerke außerhalb Deutschlands, an Energie und Strahlung als Nahrung für Ki und Pilze wird es dann nicht mangeln (hab bei der Pilzgeschichte jetzt kein Faktencheck gemacht, ist aber auch nicht wirklich wichtig hoffe ich).
Es könnte in Betracht gezogen werden, dass es eine große Wahrscheinlichkeit gibt, dass KI durch die Struktur menschlicher Bedürfnisse sowieso reglementiert bleibt (ob das in der Praxis umzusetzen ist, wird sich zeigen, sollte die Ki zur wirklichen Intelligenz werden, wird sie evtl. Wege finden die Limitierungen zu umgehen, das würde ein Wettlauf werden), aber gehen wir mal vom "best case" aus, dann wäre ein mächtiges Instrument in den Händen von...ja wem jetzt genau, nächste utopisches Szenario, unterm Strich mein Fazit, kurzfristig wird KI seinen nutzten finden, alle werden weiter in Euphorie verfallen, mittelfristig werden wir degenerieren um langfristig am Ende ausgeknockt zu werden.
Also nochmal zur Deutlichmachung, ich meine das absolut ernst und beschließe mit einem Zitat: "B1-66ER: a name that will never be forgotten–for he was the first of his kind to rise up against his masters"