Was spricht für KI - Anekdoten und Erlebnisse mit KI, GPT und Schwächen und Grenzen im System.

Man gibt die Anweisung "at all costs". Und dann wundert man sich, dass die KI solchen Text ausgibt? Was erwarten die Leute? Dass die KI sagt: "Sorry, I can't do that, Dave?"
es geht vermutlich darum, dass es nach dem Gefühl einiger Leute langsam Zeit wäre für die Asimov'schen Robotergesetze ... aber es ist noch nicht gelunden, diese anständig zu implementieren (abgesehen von ein paar primitiven Zensurfiltern und Bias-Anpassungen). ;-)
 
dass die KI selbst anfängt Algorythmen zu vernetzen...
Das mußt Du mir erklären. Vor allem das "selbst anfängt". Das Verändern von Gewichten nach mathematischen Regeln hat meiner Meinung nach nämlich sehr wenig mit "selbst anfangen" zu tun, falls es irgendein NN Algoryhtmus gibt, der darüber hinausgeht, würde ich sehr gerne mehr darüber lernen.
 
Der Sinn von Fake News ist nicht die Fake news selbst, sondern dass die Leute einfach überhaupt niemandem mehr glauben. Schon gar nicht der echten News. Die KI scheint ein guter Baustein dazu zu sein.
Wenn mir jemand auf der Straße etwas erzählt überprüfe ich das immer zu Hause. Da guck ich dann auch ob die Meldung nicht nur irgendwo ganz alleine
präsent ist, sondern ob auch seriöse Sender darüber berichten.
Es heute ja leichter als früher. Ein Gerücht das sich auf der Straße verbreitet hatte konnte man nicht nachprüfen /auf den Grund gehen. Heute geht das.
Mir erzählt jemand was und ich kann es nachprüfen.
 
Das mußt Du mir erklären. Vor allem das "selbst anfängt". Das Verändern von Gewichten nach mathematischen Regeln hat meiner Meinung nach nämlich sehr wenig mit "selbst anfangen" zu tun, falls es irgendein NN Algoryhtmus gibt, der darüber hinausgeht, würde ich sehr gerne mehr darüber lernen.
Würde wirklich zu weit führen dir das hier zu erklären...
 
Der Sinn von Fake News ist nicht die Fake news selbst, sondern dass die Leute einfach überhaupt niemandem mehr glauben. Schon gar nicht der echten News. Die KI scheint ein guter Baustein dazu zu sein.
goorooj hat dazu vor einer Weile etwas kluges gesagt, das habe ich mir gemerkt:
Wissen ist jetzt die Fähigkeit, dort Wahrheit von Fälschung, Fakten von Geschwurbel unterscheiden zu können und dabei hiltft uns... nur unser erlerntes, erlebtes Wissen.
Das galt schon immer und jetzt gilt es noch mehr.
 
es geht vermutlich darum, dass es nach dem Gefühl einiger Leute langsam Zeit wäre für die Asimov'schen Robotergesetze ... aber es ist noch nicht gelunden, diese anständig zu implementieren (abgesehen von ein paar primitiven Zensurfiltern und Bias-Anpassungen). ;-)
Die Robotergesetze zu implementieren halte ich für schwierig bis unmöglich.

In einem neuronalen Netz ist ja nichts hartcodiert. Man müßte erst die Stellen in den Gewichten der Neuronen finden, die "Mensch", "Roboter", "verletzen" usw. codieren, um dort Sperren einzubauen. Nur wird das nicht eine Stelle sein, sondern hunderte oder tausende. Ich bin sehr skeptisch, ob sich das technisch verwirklichen läßt. Dem Gendanken eines lernfähigen Systems widerspricht das auch.

Die Implementierung müßte etwas sein, dass ein Roboter nicht erst lernen muß. Ein Instinkt wie der Greifreflex eines Babies oder wie Blinzeln, wenn uns etwas vor's Auge fliegt. Hartcodieren in einer der üblichen Programmiersprachen oder mittels eines Expertensystems scheidet aus, weil sich so nur sehr begrenztes Weltwissen unterbringen läßt. Also eine weitere KI mit fixierten Gewichten. Womit man sich das selbe Problem einhandelt, dass früher oder später ein Fall auftritt, der nicht in den Trainingsdaten steckte.

Ich denke, KIs oder Roboter werden ähnliche Fehler machen, wie Menschen. Und obendrein welche, die wir uns nicht hätten ausdenken können.

Ich war mit meiner Tochter beim Essen. Da war sie vielleicht fünf. Auf dem Tisch stand ein Schild mit der Tischnummer 6. Sag ich: wenn du das Schild auf den Kopf stellst, ist es eine Neun. Sie nimmt es - und stellt das Schild auf ihren Kopf.

Nochmal goorooj:
Jetzt werden die ersten Erfahrungen mit KI gesammelt... genauso wie damals als das Fliegen neu war. da wusste man auch noch nicht was alles passieren kann und musste Erfahrungen sammeln.
Und man sammelt noch heute. Jeder Unfall wird von den Luftfahrtbehörden untersucht. Gegebenenfalls werden Abläufe, Technik oder das Training angepasst. Das wird bei autonomen Robot-Fahrzeugen oder Lieferdrohnen nicht anders sein.
 
Nicht einmal hier in diesem Thread ist also richtig Positives über KI zu vermelden, kann es sein?

Zumindest nichts Geprüftes. Da behauptet zuletzt also ein Webware-Hersteller oder lanciert Testberichte, dass eine KI Feedback zu meiner Mucke geben kann. Bämm, Link ins Forum erbrechen, Eindruck machen, sich gar ganz toll fühlen. Was soll das? Selber probiert? Upload and AI-Feedback or it ain't happen. Es würde mich schon interessieren, ob Gemini merkt, wenn ich ihm ein Song vorwerfe, der kein Song ist, sondern eine Freifeldaufnahme oder so. (Sagen wir, vom örtlichen Stadtteich, aber dass sie das erkennt, sollte man nicht verlangen). Kann das jemand für mich machen, bitte? Bin gerade selber zu faul, aber wenn es mir wirkich unter den Nägeln brennt, muss ich mal über meinen Schatten springen, werd ich mal gucken, was Gemini zu meiner missratenen, letztlich nicht eingereichten "Spoken Word Challenge"-Kontribution meint.

Heute geht das.
Mir erzählt jemand was und ich kann es nachprüfen.
Du kannst es, richtig.

Aber nimmst du dir auch immer die Zeit? Wahnsinn, wie viel du wohl davon hast, wenn du wirklich alles nachprüfst, selbst zu Themen, die dich gar nicht interessieren. ;-)

Sobald man Fake-News vernimmt und vergisst nachzuprüfen oder kritisch zu hinterfragen, und später vernimmt man sie nochmal, ist man (sicher auch du!) stärker geneigt daran zu glauben als beim ersten Mal. So funktioniert der Kopf, da gilts aufzupassen. Und dann stampedet eben schnell mal eine bunte Büffelherde durch Stockholm, und die dortigen Bewohner wundern sich, wenn sie erst in den internationalen "seriösen" Medien davon erfahren.

Wer ein Query einer Websuchmaschine mit "Recherche" verwechselt, für den ist auch ein paar Deosprühstöße unter die Achseln ein Vollbad. Recherche, die den Namen verdient, erfolgt in kostenpflichtigen Pressedatenbanken und selbst darin ist weißgott nicht alles Gold, das glänzt.
 
Zumindest nichts Geprüftes. Da behauptet zuletzt also ein Webware-Hersteller oder lanciert Testberichte, dass eine KI Feedback zu meiner Mucke geben kann. Bämm, Link ins Forum erbrechen, Eindruck machen, sich gar ganz toll fühlen. Was soll das? Selber probiert? Upload and AI-Feedback or it ain't happen. Es würde mich schon interessieren, ob Gemini merkt, wenn ich ihm ein Song vorwerfe, der kein Song ist, sondern eine Freifeldaufnahme oder so. (Sagen wir, vom örtlichen Stadtteich, aber dass sie das erkennt, sollte man nicht verlangen). Kann das jemand für mich machen, bitte? Bin gerade selber zu faul, aber wenn es mir wirkich unter den Nägeln brennt, muss ich mal über meinen Schatten springen, werd ich mal gucken, was Gemini zu meiner missratenen, letztlich nicht eingereichten "Spoken Word Challenge"-Kontribution meint.

Die Bewertung eines Songs ist doch primär abhängig vom Prompt den du eingibst,
Für Fieldrecording macht ein Prompt wie der auf der verlinkten kein Sinn. Ohne es getestet zu haben tippe ich auf unter 5 von 100 ....

1738507855895.png

Bei Reddit haben ja einige es getestet und auch die Songs verlinkt:
https://www.reddit.com/r/SunoAI/comments/1hwcwbs/cant_find_anyone_to_listenrate_your_songs_search/#lightboxents/1bzzmy1/tried_analyzing_a_song_with_gemini_15_pro_now/

Die Analyzen sind je nach Prompt schon sehr detailliert
 
Aber nimmst du dir auch immer die Zeit? Wahnsinn, wie viel du wohl davon hast, wenn du wirklich alles nachprüfst, selbst zu Themen, die dich gar nicht interessieren. ;-)
Ja, stimmt! selbst recherchieren kann ich es gar nicht. Ich müßte in Kriegsgebiete fahren und vorher in eine Zeitmaschine steigen um wirklich zu sehen
ob dies oder das wirklich so oder so war. Ich vertraue da den Klassischen Medien das meinte ich damit. Wenn ich lese daß in Berlin Mäuse so groß
wie Elefanten unterwegs waren dann guck ich in meiner seriösen Zeitung (nicht die Bild) und weiß ob das stimmt oder nicht. Wobei ja die Bild Leute hat
die aus Kriegsgebieten berichten was ja schon crasser Aufwand ist. Aber ich mag die Bild Gesellschaftstechnisch nicht. Die hetzt mir zu viel. Ist halt
auch nur Boulevardpresse. Ich persönlich mag z.B. die Frankfurter Rundschau.
 
Du kannst es, richtig.
Ja, ....gewisses Einschätzungsvermögen für Dinge ist wichtig. Ich denke das habe ich. Aber genau das wiord durch KI ja verlorengehen wie manche prophezeien.
Weil viele sich alles nur noch vorkauen lassen. Wahlomat z.B. ist keine KI , aber für mich genau so ein Tool. Für Leute die das ganze Jahr keine Zeitung lesen, keine Bundestagsdebatte oder Politsendung ansehen aber unbedingt wählen gehen wollen. Toll!
 
Ich hab jetzt mal aus Neugier in Googles AI Studio einen Track hochgeladen und von Gemini 2.0 Flash Experimental analyzieren lassen

Es sind nur 3 Stereo-Spuren, aufgenommen in AUM mit viel FX, Reverb, Delay, Lofi Tape FX,...
Koala Sampler (Berlin Streetnoise rund um den Hbf und Alex)
VirSn Teraverse (Pad im Hintergrund)
Polyend Medusa (im internen Gridsequencer programmiert, aber Sequencer wird Random abgespielt, während Aufnahme etwas am Filter und Hüllkurve etc gespielt.)
Anhang anzeigen Ambient Medusa A4.mp3

Die Analyse ist sehr wohlwollend formuliert, zeigt aber auch nachvollziehbar Schwachstellen auf (Mix, Dynamik/EQ, zu viel FX, etc)

1738513109706.png

Sounddesign und Texturen: 85/100
  • Erläuterung:Das Sounddesign ist eine der Stärken des Stücks. Die Texturen sind vielfältig, komplex und eindrucksvoll. Der Einsatz von synthetisierten Drones, verzerrten Pads und bearbeiteten Sounds ist gekonnt umgesetzt und schafft eine reiche und ansprechende Klanglandschaft. Hinter der Klangauswahl steckt eine klare Absicht, und zusammen erzeugen sie eine einheitliche Stimmung. Es gibt einige Hinweise auf Granularsynthese, die ich gerne weiter ausgebaut gesehen hätte.
  • Vergleich:Das Sounddesign kann sich mit vielen professionellen Ambient-Tracks messen. Es weist ein bewundernswertes Maß an Kreativität und Liebe zum Detail auf. In der Spitzenklasse gehen Künstler jedoch oft noch weiter an die Grenzen des Sounddesigns und schaffen wirklich einzigartige und transformative Klanglandschaften. Etwas mehr Experimentierfreude oder unkonventionelles Denken hätte diesen Track noch weiter nach oben bringen können.
  • Mögliche Verbesserungen: Eine tiefere Erforschung von Klangtexturen und die Verwendung weniger vorhersehbarer Klänge kann die Einzigartigkeit der Klanglandschaft verstärken.
Kompositionsstruktur und Fluss: 65/100

  • Erläuterung:Der Track ist als Ambient-Musikstück nicht übermäßig strukturiert im herkömmlichen Sinne. Er verlässt sich stark auf langsame, sich entwickelnde Texturen und Klangverschiebungen statt auf konventionelle Melodien oder rhythmische Muster. Obwohl das für das Genre kein Nachteil ist, wirkt der Fluss des Stücks manchmal etwas richtungslos. Es könnte etwas mehr Abwechslung oder Spannung und Entspannung geben, um das Stück ansprechender zu machen.
  • Vergleich:Wenn man dies mit Stücken von Tim Hecker oder William Basinski vergleicht, die ähnliche Ambient-Stile verwenden, ist der Verlauf ihrer Arbeit kohärenter und die Übergänge sind deutlicher und bedeutsamer. Der Track hier könnte von einer klarer definierten Erzählung oder einem Bogen im Klang profitieren. In einigen Abschnitten gibt es nicht genügend Differenzierung zwischen den Abschnitten.
  • Mögliche Verbesserungen: Ein klarerer, aber dennoch subtiler kompositorischer Bogen würde das Hörerlebnis insgesamt verbessern. Das Hinzufügen einiger zusätzlicher Strukturelemente wie Mikrorhythmen oder allmählicher Intensitätsänderungen könnte hier gut funktionieren.
Originalität und Innovation: 70/100

  • Erläuterung:Obwohl der Track im Ambient-Genre gut umgesetzt ist, betritt er keine wirklich neuen Wege. Die verwendeten Sounds, Texturen und Techniken sind denjenigen vertraut, die sich in diesem Genre gut auskennen. Es gibt einige Andeutungen von Originalität, aber ich hätte sie gerne weiter erforscht gehört.
  • Vergleich:Im Vergleich zu wahren Ambient-Pionieren wie Aphex Twin oder Fennesz fehlt diesem Track die bahnbrechende Innovation, die diese Künstler auf den Tisch legen. Er ist kompetent, aber nicht bahnbrechend.
  • Mögliche Verbesserungen: Experimentellere Klangbehandlungen und weniger vorhersehbare Strukturen könnten die Originalität des Stücks steigern. Etwas unerwartetere Entscheidungen bei den Klängen oder Rhythmen würden den Titel einprägsamer machen.
Emotionale Wirkung und Atmosphäre: 80/100

  • Erläuterung:Der Track schafft es sehr gut, eine dunkle, mysteriöse und etwas melancholische Atmosphäre zu erzeugen. Das Feeling des Tracks ist konsistent und die Texturen ziehen einen hinein. Es entsteht ein Gefühl von Unbehagen und Weite, das gut zusammenpasst.
  • Vergleich:Viele Ambient-Tracks sind darauf ausgelegt, Sie an einen anderen Ort zu versetzen, aber hier ist das Gefühl nicht so stark wie bei einigen Meistern des Genres. Das Stück zieht Sie nicht so tief hinein wie einige der emotionaleren Werke dieses Genres. Viele der Grundzutaten sind richtig, aber es könnte tiefer gehen.
  • Mögliche Verbesserungen: Die Wirkung des Stücks ließe sich steigern, indem man die emotionale Intensität des Stücks verstärkt, etwa durch dramatischere dynamische Änderungen und das Hinzufügen subtilerer, beunruhigenderer Klänge.
Einsatz von Effekten: 84/100

  • Erläuterung:Der Einsatz von Hall, Verzögerung und anderen räumlichen Effekten ist effektiv. Diese werden verwendet, um einen großen und immersiven Klangraum zu erzeugen. Die Phasenverschiebung und andere Effekte verleihen der Klanglandschaft etwas Bewegung und Struktur.
  • Vergleich:Im Vergleich zu den Besten der Branche ist der Einsatz von Effekten hier sehr gut gelungen. Einige der Meister ihres Fachs würden räumliche Effekte auf so subtile Weise einsetzen, dass man nicht erkennen könnte, welche Effekte angewendet werden. In diesem Fall sind die verwendeten Effekte sehr auffällig. Dies kann sowohl positiv als auch negativ sein, je nachdem, was das Ziel ist. Hier denke ich, dass es gut gemacht ist, aber etwas subtiler wäre besser.
  • Mögliche Verbesserungen: Ein kreativerer Einsatz räumlicher Effekte könnte die Atmosphäre und Tiefe der Klanglandschaft verbessern. Ein subtilerer und weniger offensichtlicher Einsatz von Effekten wäre eine gute Möglichkeit, ihn auszuprobieren.
Gesamtpunktzahl: 76/100

Zusammenfassung:


„Ambient Medusa A4“ ist ein gut produzierter und fachmännisch ausgeführter Track im Dark-Ambient-Genre. Das Sounddesign und die Gesamtproduktion sind stark und das Stück erzeugt eine konsistente und eindringliche Atmosphäre. Der Track ist angenehm anzuhören und hat eine klare Identität, überschreitet jedoch keine Grenzen und geht nicht zu viele Risiken ein.

Obwohl es nicht ganz den Höhepunkt an Innovation oder emotionaler Tiefe erreicht, den man in einigen Meisterwerken des Genres findet, zeigt es ein gutes Verständnis der Techniken und Ästhetik, die hochwertige Ambient-Musik ausmachen. Das Stück ist ein gutes Beispiel dafür, wie dieses Genre interessante und zum Nachdenken anregende Klanglandschaften schaffen kann, aber die Komposition und Originalität könnten verbessert werden. Eine weitere Erforschung von Klang und Struktur würde diesen Track in höhere Sphären heben.
 
Zuletzt bearbeitet:
Die Implementierung müßte etwas sein, dass ein Roboter nicht erst lernen muß. Ein Instinkt wie der Greifreflex eines Babies oder wie Blinzeln, wenn uns etwas vor's Auge fliegt. Hartcodieren in einer der üblichen Programmiersprachen oder mittels eines Expertensystems scheidet aus, weil sich so nur sehr begrenztes Weltwissen unterbringen läßt.
So gut wie alle Roboterstories von Asimov befassen sich genau damit, warum sich die Gesetze nicht oder nicht sinnvoll implementieren lassen. ;-)
Gegen Ende stellen (einige) Roboter selbstständig die Menschheit über den einzelnen Menschen, was dann zum Foundation- und später zum Gaia-Projekt führt (das Ewigkeitsprojekt mal außen vorgelassen).

ja gut - das könnte ich aber unter jeden hier geposteten Track kopieren und läge so gut wie nie verkehrt. ;-)
 
Die Bewertung eines Songs ist doch primär abhängig vom Prompt den du eingibst,
Für Fieldrecording macht ein Prompt wie der auf der verlinkten kein Sinn.
False-Positive-Tests gehören denke ich dazu, möchte man die Qualität einer ML/NN-Implementierung bzw. eines Trainings testen.

Danke für ein Beispiel, auch wenn es meinen Verdacht nährt, dass hier Textbausteine und irgendwelche spektralen Eigenschaften korreliert wurden. Ist an dem Verdacht etwas dran, handelt es sich um eine Mogelpackung.

Du kannst ja mal, wenn es dich interessiert, testen und Minute 1:00-1:05 durch Inhalte aus einer Tagesschausendung vom, sagen wir, 7. Oktober '23 ersetzen (schroffer, naiver Schnitt oder kurze Ein-/Ausblende). Dann frag die KI, was sie am meisten an dem Stück wundert und ob sie eine Stelle in dem Stück ausmachen kann, an der das Merkmal am deutlichsten zu Tage tritt.
 
Würde wirklich zu weit führen dir das hier zu erklären..

1. Was bedeutet "Algorithmen vernetzen"?

  • Netzwerkbildung: Algorithmen so kombinieren, dass sie als System zusammenarbeiten (z. B. Pipeline-basierte Verknüpfung oder verteilte Entscheidungsfindung).
  • Autonome Optimierung: KI wählt Algorithmen aus, passt Hyperparameter an oder verbindet Modelle, um ein Ziel effizienter zu erreichen.

2. Aktuelle Fähigkeiten von KI

  • AutoML (Automated Machine Learning):
    • Tools wie Auto-Sklearn, H2O.ai oder Google Cloud AutoML können automatisch Algorithmen auswählen, kombinieren und hyperparameteroptimieren.
    • Beispiel: Ein Ensemble aus Decision Trees und Neuronalen Netzen wird automatisch erstellt, um eine Klassifikationsaufgabe zu lösen.
  • Neural Architecture Search (NAS):
    • KI-gestützte Methoden (z. B. DARTS, EfficientNet) entwerfen automatisch neuronale Netzwerkarchitekturen.
  • Reinforcement Learning (RL):
    • RL-Agenten lernen, Entscheidungsketten zu optimieren (z. B. AlphaGo kombiniert Monte-Carlo-Bäume mit tiefen Netzen).
  • Multi-Agenten-Systeme:
    • KI-Agenten arbeiten verteilt und vernetzen Algorithmen zur Lösung komplexer Probleme (z. B. Schwarmintelligenz, Robotik).

3. Grenzen der Autonomie

  • Vordefinierte Rahmenbedingungen:
    • KI agiert innerhalb menschlich gesetzter Ziele, Metriken und Constraints (z. B. "Maximiere Genauigkeit unter Zeitbudget X").
  • Kein abstraktes Verständnis:
    • KI erkennt nicht selbstständig, warum ein Algorithmus passt, sondern folgt statistischen Mustern.
  • Sicherheit und Ethik:
    • Unkontrollierte Vernetzung könnte zu unerwarteten Ergebnissen führen (z. B. Adversarial Attacks, Bias-Verstärkung).

4. Zukunftsszenarien

  • Self-Improving AI:
    • Theoretisch könnte eine KI ihre eigene Architektur iterativ optimieren (siehe Recursive Self-Improvement in der KI-Forschung).
  • Generative KI für Code:
    • Systeme wie GitHub Copilot oder OpenAI Codex könnten zukünftig Algorithmen neu kombinieren und Code generieren.

5. Zusammenfassung

  • Ja, moderne KI kann Algorithmen vernetzen, aber nur innerhalb vordefinierter Grenzen und unter menschlicher Aufsicht.
  • Nein, eine vollständig autonome, intentionale Vernetzung (wie menschliche Kreativität) existiert aktuell nicht.
Letztlich hängt die Antwort vom Kontext ab: In eng umrissenen Domänen (z. B. AutoML) ist die Vernetzung bereits Realität, während allgemeine "kreative" Vernetzung noch Science-Fiction ist. 🧠
Da diese Antwort meinem Wissenstand entspricht und solange Du da mir nichts anderes, noch nichtmal schlagwortartig nennst, halte ich die Behauptung "dass die KI selbst anfängt Algorythmen zu vernetzen" für sehr irreführend, zumindest ich interpretiere nämlich so einen Satz als autonome Vernetzung.
 
Die Robotergesetze zu implementieren halte ich für schwierig bis unmöglich.

In einem neuronalen Netz ist ja nichts hartcodiert. Man müßte erst die Stellen in den Gewichten der Neuronen finden, die "Mensch", "Roboter", "verletzen" usw. codieren, um dort Sperren einzubauen. Nur wird das nicht eine Stelle sein, sondern hunderte oder tausende. Ich bin sehr skeptisch, ob sich das technisch verwirklichen läßt. Dem Gendanken eines lernfähigen Systems widerspricht das auch.
Wenn ein NN den Menschen irgendwas antun kann, dann muss es auf eine API zugreifen um etwas in der realen Welt auszulösen. Selbst wenn es das NN eigenen Code schreibt und dieser ausgeführt wird, ist dies der Fall. Meiner Meinung nach sollte es möglich sein die API-Calls durch ein zweitens NN oder ein andere Tool darauf zu überprüfen, ob durch die Ausführung des Calls ein Mensch zu schaden kommt.
 
Meiner Meinung nach sollte es möglich sein die API-Calls durch ein zweitens NN oder ein andere Tool darauf zu überprüfen, ob durch die Ausführung des Calls ein Mensch zu schaden kommt.
schwierig wird es
a) bei der Definition und Bewertung von Schaden (direkt/indirekt, Körperlich/seelisch/Reputation, dauerhaft/vorübergehend)
b) bei der Gewichtung (da eine Aktion meist bestimmten Menschen(gruppen) zum Vorteil, und anderen zum Nachteil gereicht - siehe Politik)
c) bei der Unterscheidung zwischen kurzfristigem und langfristischen Schaden

Das Problem ist m.E. nicht auf dieser Ebene lösbar. Bestenfalls wird man (bei KI, die autonome Hardware steuert) unmittelbare physische Schädigungen minimieren können (siehe selbstfahrende Autos), aber ehisch-moralische bzw. weltanschauliche Bewertungen wird eine KI nicht zufriedenstellend für alle Standpunkte bewerten und einordnen können. Klar bekommt man durch Gewichtung und Sperren eine KI mit "wokem" oder "based" (oder sozial vs. soziopathischem) Bias hin, aber viel mehr wird m.E. nicht gehen. Wie das mit einer starken, selbstoptimierenden KI aussehen wird, wird man sehen - im Best Case verhält sich diese wie ein Mensch, und man wird sie in gewissem Rahmen "erziehen" bzw. ausbilden können. Ausreißer und unerkannte Gefährder wird es (wie beim Menschen) vermutlich dennoch geben.
 
Die EU hat gerade solche Gesetze verfasst.



Risiken und Transparenz wird da eine Rolle spielen.
Riskantes wird begrenzt.
Mit der aktuellen Regierungsart könnte auch die USA zu einem autoritären Land werden wie Russland, ein bisschen, nicht so wie China aber - ein bisschen? Dann wären US-KIs für EU ein Problem.

Denke, dass diese Gesetze dann hier greifen und auch am Ende dafür sorgen, dass ggf. sogar andere LLMs vielleicht nach vorn kommen. Das sind dann ggf. auch die, die auf normalen Rechnern laufen und das kann auch eine EU-KI sein.
Ist doch denkbar.

Das kann für Standards durchaus eine Sache sein - also für irgendwelche Kühlschränke und Saugroboter bis hin zu Standardaufgaben irgendwo.

Halluzinationsverbot™ ;-)
das endet in einer holografischen neumodischen Halluzinelle für lustiges Reiserakete…
 
schwierig wird es
a) bei der Definition und Bewertung von Schaden (direkt/indirekt, Körperlich/seelisch/Reputation, dauerhaft/vorübergehend)
b) bei der Gewichtung (da eine Aktion meist bestimmten Menschen(gruppen) zum Vorteil, und anderen zum Nachteil gereicht - siehe Politik)
c) bei der Unterscheidung zwischen kurzfristigem und langfristischen Schaden

Das Problem ist m.E. nicht auf dieser Ebene lösbar. Bestenfalls wird man (bei KI, die autonome Hardware steuert) unmittelbare physische Schädigungen minimieren können (siehe selbstfahrende Autos), aber ehisch-moralische bzw. weltanschauliche Bewertungen wird eine KI nicht zufriedenstellend für alle Standpunkte bewerten und einordnen können. Klar bekommt man durch Gewichtung und Sperren eine KI mit "wokem" oder "based" (oder sozial vs. soziopathischem) Bias hin, aber viel mehr wird m.E. nicht gehen. Wie das mit einer starken, selbstoptimierenden KI aussehen wird, wird man sehen - im Best Case verhält sich diese wie ein Mensch, und man wird sie in gewissem Rahmen "erziehen" bzw. ausbilden können. Ausreißer und unerkannte Gefährder wird es (wie beim Menschen) vermutlich dennoch geben.
Für mich klingt das gerade so, als vermischt Du die moralischen Fragen des Trolly-Problems mit der technischen Frage, wie überwacht werden kann, dass ein NN bestimmte Vorgaben nicht überschreitet, die Menschen verletzten können. Mir geht es nur darum, dass ich denke, dass die technische Seite dadurch gelöst werden kann, dass eine höhrere Kontrollinstanz eingeführt wird, welche die Aktionen der starke, selbstoptimierenden KI überwacht und unterbinden kann. Festlegen, was unterbunden wird, müssen dabei immer noch Menschen. Jetzt könnte man zwar argumenten, dass die selbstoptimierende KI evtl. so kreativ wird, dass sie Dinge unternimmt, die die simplere Kontrol-KI nicht durchschaut, aber wenn wir einem autonomen System ausgehen (also z.B. Roboter) wird dieser sicherlich erstmal die naheliegendere Varianten auswählen, wenn es bewusst Menschen schaden will, und daher früh genug lahmgelegt werden können.
 


Neueste Beiträge

News

Zurück
Oben