KI Gefahr für die Menschheit?

Da ist auch wieder der Mensch die Fehlerquelle. Die KI wurde angewiesen effizienter zu arbeiten. Sich selbst zu optimieren indem sie ihre Arbeitszeit verlängert war nicht verboten und für die KI deshalb eine logische Lösung. Der Mensch hat versäumt diese Grenze zu setzen, bzw. der KI eine eindeutige Anweisung zu geben.
 
Dass die KI ein gefährliches Werkzeug ist, gerade weil ihr Schöpfer nicht an alle möglichen Sicherheitsvorkehrungen denkt geschweige diese trifft?
 
Da ist auch wieder der Mensch die Fehlerquelle. Die KI wurde angewiesen effizienter zu arbeiten. Sich selbst zu optimieren indem sie ihre Arbeitszeit verlängert war nicht verboten und für die KI deshalb eine logische Lösung. Der Mensch hat versäumt diese Grenze zu setzen, bzw. der KI eine eindeutige Anweisung zu geben.

An wieviele Grenzen denkst du denn, wenn du ne KI maßregeln willst? Es ist praktisch nicht möglich einer KI wasserdicht Grenzen zu setzen.
 
Der Mensch muss dazu doch einfach nur ne KI benutzen. Aber warum einfach, wenn es auch kompliziert geht.
 
An wieviele Grenzen denkst du denn, wenn du ne KI maßregeln willst? Es ist praktisch nicht möglich einer KI wasserdicht Grenzen zu setzen.
Warum ist das nicht möglich? du musst auch bei einem Flugzeug an alle Eventualitäten denken.
Entweder du tutst das oder du bist Boeing und arbeitest schlampig, dann fällt es halt runter. Und genau das darf halt mit KI nicht passieren, genauso wie es mit Flugzeugen eigentlich nicht passieren sollte.... ausser es sind skrupellose Kapitalisten involviert. Alle Warnungen von Wissenschaftlern gehen auch genau dahin. Kein einziger will KI auf alle Ewigkeit verhindern. Es geht um sicheren Umgang.

Jetzt werden die ersten Erfahrungen mit KI gesammelt... genauso wie damals als das Fliegen neu war. da wusste man auch noch nicht was alles passieren kann und musste Erfahrungen sammeln.
Dann sind halt Dinge passiert, und aus denen hat man gelernt. Keiner hat gesagt "oooh viel zu gefährlich, Fliegen wird jetzt verboten".

Wie willst du mit KI Erfahrungen sammeln wenn du nicht genau solche Szenarien ausführst? Was da in Japan "passiert" ist, ist doch genau das was man mit Testumgebungen erreichen will.
 
Mir ( und vermutlich auch dir ) ist auch die Technik eines Flugzeugs weit überlegen.

Aber irgendwem ja nicht. Da draußen gibt es Menschen, die diese Technik verstehen und berechnen können.

Einer KI mit einer Intelligenz, die der des Menschen übersteigt, kannst du als Mensch keine Regeln auferlegen,
weil das Verständnis fehlt wie die KI funktioniert.

Oder wirst du ständig von Fischen verarscht?
 
Aber irgendwem ja nicht. Da draußen gibt es Menschen, die diese Technik verstehen und berechnen können.

Einer KI mit einer Intelligenz, die der des Menschen übersteigt, kannst du als Mensch keine Regeln auferlegen,
weil das Verständnis fehlt wie die KI funktioniert.

Oder wirst du ständig von Fischen verarscht?

Genau.

Dieses Wissen, wie die Technik des Flugzeugs zu verstehen und zu berechnen ist, war auch nicht schon immer da. Das hat sich in 100 Jahren entwickelt.
In diesen hundert Jahren sind ziemlich viele runtergefallen.

Das Verständnis wie eine KI funktioniert fehlt.
Grossteils. Jetzt.
Ich bin mir ziemlich sicher dass das in nicht hundert, sondern vielleicht schon 10-20 Jahren anders aussieht.

Bis dahin muss halt damit gearbeitet und experimentiert werden, damit es da draussen irgendwann Menschen gibt die diese Technik so gut verstehen und berechnen können dass eben nichts passiert.
Diese Menschen werden ganz offensichtlich weder du noch ich sein. Vielleicht auch wenige von denen die im Moment noch daran forschen.
Dazu muss es aber KIs geben an denen man forschen kann.
Verbieten zu wollen was man nicht versteht war noch nie eine Lösung, für gar nix.
 
Kann schon sein das Verbote nicht immer die Lösung sind. Aber manche Verbote sind halt dringlich notwendig. Oder sollte in der Medikamentenforschung neuartige ungetestete Wirkstoffe an menschlichen Probanden sofort getestet werden dürfen? Ich mein die Zeiten gab es schonmal. Dieses ganze getue der KI Unternehmen ist doch an Scheinheilig nicht zu überbieten. Die wissen doch haargenau was sie auf den Markt geworfen haben und welche Risiken diese birgt. Ich finde einfach das hochkomplexe Technologie nicht in die Hand von irgendwelchen Hinterwäldlern gehört.
 
Kann schon sein das Verbote nicht immer die Lösung sind. Aber manche Verbote sind halt dringlich notwendig. Oder sollte in der Medikamentenforschung neuartige ungetestete Wirkstoffe an menschlichen Probanden sofort getestet werden dürfen? Ich mein die Zeiten gab es schonmal. Dieses ganze getue der KI Unternehmen ist doch an Scheinheilig nicht zu überbieten. Die wissen doch haargenau was sie auf den Markt geworfen haben und welche Risiken diese birgt. Ich finde einfach das hochkomplexe Technologie nicht in die Hand von irgendwelchen Hinterwäldlern gehört.
Da widerspreche ich dir absolut nicht.
Deshalb muss dazu speziell in der Wissenschaft geforscht werden. Und es gehört staatliche Förderung her, damit das nicht ausschliesslich in den Händen der Kapitalgesellschaften liegt die gross genug sind die Technologie aquf die Beine zu stellen. Das ist etwas das die gesamte Gesellschaft betrifft.
Denn das ist das gefährliche daran. Die wollen dann so schnell wie möglich Reibach damit machen und hauen auch gern, wie du schreibst, ungetestetes Zeug raus wenns nicht geregelt ist.
Das ist kein Verbot. Das ist eine Regelung.
Wie bei den Medikamenten... es ist nicht verboten Medikamente zu testen, es ist geregelt.
 
Bei 16:00 trifft er es exakt. Man stiehlt im Silicon valley einfach die Daten die man braucht. Wenn es kein Erfolg wird interessiert es keinen, wenn es ein Erfolg wird engagiert man einfach eine Armee von Rechtsanwälten die dann aufräumen und das Produkt in die Legalität überführen.
 
Neue Forschungsergebnisse finden signifikante Schwächen in allen LLMs — auch in den neuesten und besten.

Es geht im Kern um die Bestätigung eines alten Verdachts, nämlich dass LLMs im Kern nur Mustererkennung betreiben und nicht wirklich vernünftige Schlüsse ziehen können („Reasoning“), wie es zum Beispiel zum Lösen von mathematischen Problemstellungen notwendig ist.

 
"current LLMs are not capable of genuine logical reasoning, instead they attempt to replicate the reasoning steps observed in their training data"
Oder, deutsch:
Aktuelle LLMs sind nicht in der Lage, echte logische Überlegungen anzustellen, stattdessen versuchen sie, die in ihren Trainingsdaten beobachteten Logikschritte zu reproduzieren

Hier gibts die Infos in lesbarer Form, für alle die keine Videos mögen:


Eine andere Studie kommt zu dem Schluss, dass KI-Modelle zumindest eine Art probabilistisches Schlussfolgern durchführen.

"Ein Grund für diese Unterschiede könnte sein, dass Begriffe wie Intelligenz, Denken und Logik unscharf sind, unterschiedlich definiert werden oder in Variationen und Abstufungen auftreten können. Letztlich wird die akademische Diskussion in den Hintergrund treten, wenn zukünftige KI-Modelle in der Lage sind, die ihnen gestellten Aufgaben zuverlässig zu lösen"

Es ist ja auch bei Menschen zu beobachten, dass es Menschen gibt die logisch denken und auch ungewohnte Aufgaben schnell lösen können, während andere sehr gut auswendig lernen und das dann anwenden können ( auch Mathematik ), allerdings immer in den Grenzen des Gelernten. Es bleibt spannend.
 
Zuletzt bearbeitet:
Hier noch eine interessante Studie in dem Zusammenhang aus Juni diesen Jahres, die eigentlich bestätigt dass KIs schwurbeln:


"Der Zusammenbruch sei auch deshalb so dramatisch, weil die Modelle ein starkes Selbstvertrauen in ihre falschen Lösungen ausdrückten und Pseudo-Logik einsetzten, um die Gültigkeit eindeutig falscher Antworten zu rechtfertigen und zu untermauern, heißt es in dem Paper."
 

"Large language models reduce public knowledge sharing on online Q&A platforms" / Große Sprachmodelle reduzieren den öffentlichen Wissensaustausch auf Online-Q&A-Plattformen


Bei der in diesem Paper behandelten Plattform ging die Anzahl der Posts signifikant zurück.

Klar: warum erst in einer Plattform fragen und evtl. Stunden auf eine Antwort warten - da kann man doch gleich die KI befragen, die antwortet sofort. Und das bedeutet eben, dass es immer weniger qualifizierte Antworten geben wird, und die KI immer mehr halluzinieren muss weil künftig das Trainingsmaterial fehlt ...
 
"current LLMs are not capable of genuine logical reasoning, instead they attempt to replicate the reasoning steps observed in their training data"

Tja, anfangs dieses Threads wurde darauf hingewiesen, dass Angst vor KI ein willkommenes Marketinginstrument für KI ist, weil man so in die Nachrichten kommt, als bedrohenswert schlaues System.

Nachdem jetzt einer der AI-Doom-Propheten den Nobelpreis bekommen hat, betont man vorsichtshalber, wie dumm die Systeme doch sind, tsk...

Aber: So, wie überraschenderweise die Systeme vor 2 Jahren anfingen, schlau zu sprechen, so werden sie irgendwann auch tatsächlich kapieren, was sie sagen.

Denn, so das Argument des Nobelpreisträgers (Geoffrey Hinton), die beste Methode der Maschine, um den Wahrheitsgehalt der (stochastisch erzeugten) Sätze zu verbessern, ist es, sie auch zu verstehen. Dann werde es gefährlich...

Hier ein interessanter Artikel (von letztem Jahr) über den Mann, seine Forschung und Bedenken:

 
Danke für den Link ... lese ich mir mal durch, wenn ich Zeit habe.

Von wegen "betont man vorsichtshalber, wie dumm die Systeme doch sind, tsk..." .. OpenAI und Konsorten sagen das ja gar nicht, sondern Apple, die ziemlich spät zu dem LLM-Game dazugestoßen sind. Das aber nur als Bemerkung am Rande.
 
Kara Swisher (hat auch einen sehr guten podcast) über die Unmöglichkeit, KI zu Regulieren und anderes




 
KI ist aus meiner Sicht eine unmittelbare Gefahr für die Menschheit wegen des nötigen Energieverbrauchs und damit verbundener Umweltbelastung. Wenn man liest, dass Amazon extra dafür Atomkraftwerke benötigt… das gilt natürlich verallgemeinert für alles was mit „Internet“ zu tun hat. Über den Energiebedarf wird ja eher selten diskutiert.
 
Die Politik will ja immer alles „digitalisieren“. DAS Allheilmittel. Nur blöd wegen Abbau von Arbeitsplätzen und nötigem Energiebedarf. Bloss nicht nachfragen.
 
Dieser TED Talk von Sasha Luccioni (Informatikerin) beleuchtet ein paar Aspekte von KI, auch den Einfluss auf die Umwelt.
Allerdings redet sie an manchen Stellen von "Carbon" wo es imho "Caron Dioxide" heißen müsste.
 
Ja. Im allg redet man im englischsprachigen Raum von Carbon Footprint. Das ist allgemeiner gefasst und spricht den Kreislauf der Stoffe an, um den es letztendlich geht. CO2 ist ein Teilaspekt dessen.
 
KI ist aus meiner Sicht eine unmittelbare Gefahr für die Menschheit wegen des nötigen Energieverbrauchs und damit verbundener Umweltbelastung. Wenn man liest, dass Amazon extra dafür Atomkraftwerke benötigt… das gilt natürlich verallgemeinert für alles was mit „Internet“ zu tun hat. Über den Energiebedarf wird ja eher selten diskutiert.
da müsste man jetzt tatsächlich mal rechnen ob einen track mit diversen strombetriebenen synthesizern aufzunehmen, tagelang am rechner zu bearbeiten und dann auf diverse Internetportale hochzuladen und darüber in internetprotalen zu schreiben wirklich günstiger ist als eine KI in 5 minuten einen song rauspressen zu lassen.
( davon ausgehend dass momentan täglich 100.000 neue songs auf spotify hochgeladen werden und es dem gegenüber aktuell 2 KIs gibt die Musik machen und vielleicht den gleichen output haben ).
Und damit meine ich tatsächlich nur den kumulierten stromverbrauch ( also auch training, etc ), ob das ergebnis gut, schlecht, kunst oder kram ist sei da jetzt mal aussen vor.

Null Stromverbrauch habe ich, so ich denn keine Solarbedachung mein Eigen nenne, eh nur wenn ich daheim bei Kerzenschein mein harmonium mit fusspumpe betreibe und nix aufnehme.

Und dann kann man auch weitergehen und überlegen dass die 5 analogen synthesizer die ich anwerfe um musik zu machen auch gut mit VSTs auf einem stromsparenden Laptop zu ersetzen wären. Der Umwelt zuliebe.
Synthesizer sind halt keine Blockflöten. Die Einzelteile oder das komplette Ding werden auf der anderen Seite des Erdballs aus Rohstoffen aus zweifelhaften Quellen gefertigt und einmal halb um die Welt mit Containerschiffen geschippert.
Ob die jetzt "Made in China" oder "Assembled in USA" sind ist da sogar noch bedeutend, weil die "assembled in USA" dann eventuell schon zweimal eine Schiffsreise hinter sich haben.
Würde ich handgedengelte Violinen aus österrreichischem Almholz spielen hätte ich da ein reines gewissen, aber so ja eh nicht mehr. Darum kann ich persönlich mich jetzt auch schlecht über den Stromverbrauch anderer aufregen.
Ich habe auch, jetzt wo ich so darüber nachdenke, noch nie in irgendwelchen Kaufempfehlungen hier irgendwas über den Stromverbrauch gelesen. Da ist es dann offensichtlich völlig egal.

Dieser TED Talk von Sasha Luccioni (Informatikerin) beleuchtet ein paar Aspekte von KI, auch den Einfluss auf die Umwelt.
Allerdings redet sie an manchen Stellen von "Carbon" wo es imho "Caron Dioxide" heißen müsste.


Ein Youtube-Video von einem Influencer in einem Forum zu verlinken finde ich auch ein bisschen arg kitzlig bei genau diesem thema.
Ich kann nicht glaubhaft als Influencer mit Videos auf Youtube mein Geld verdienen in denen ich mich über den Stromverbrauch des Internets echauffiere.
 
Zuletzt bearbeitet:


News

Zurück
Oben