Was spricht für KI - Anekdoten und Erlebnisse mit KI, GPT und Schwächen und Grenzen im System.

Hatte gestern einen einen PR-Text zum Veröffentlichen bekommen. Der Text stammte von einem Tschechen, entsprechend "holperig" war das Deutsch. Das geht in einem PR-Text ja nun gar nicht ...
Also habe ich den Text durch Deepl Write gejagt: https://www.deepl.com/write/write-mobile (in chunks von 2000 Zeichen, mehr verarbeitet die kostenlose Version nicht auf einmal). Das Ergebnis ist nahezu perfekt, guggst Du hier:

Hätte ich das "zu Fuß" korrigieren müssen hätte ich bestimmt ne Stunde gebraucht da ja auch der Satzbau geändert werden musste. So aber war das in knapp 2 Minuten erledigt.

Kann ich wärmstens empfehlen.
 
Bard ist zzt nicht in der Lage Rolf Wöhrmann als Entwickler und CEO von Waldorf zu erkennen, weigert sich auch nachzusehen. Das konnte GPT durchaus und Bing GPT weiss es auch. Bard ist bei Grooveboxen auch total verwirrt, nachdem ich nach Push 3 und Akai Force frage, nennt er mit den alten Push als Controller, bezeichnet die Force als Controller für Ableton und schwatzt mir dann was von der MPC One, die eigentlich nicht in der Frage stand.

Bard ist bei vielen tiefen Fragen noch ziemlich dumm. Es wird wohl also erst einmal bei GPT bleiben.
Bard ist übrigens jetzt Gemini. Gibt noch ein paar Updates, daher haben die das umbenannt.

Das Update: https://gemini.google.com/updates
 
Das ist eine mögliche weiter Entwicklung der KI (von Leopold Aschenbrenner, der Open-Ai mit aufgebaut hat): https://situational-awareness.ai/
Nach seiner Prognose wird 2030 AGI bzw, ASI (Artificial Super Intelligence) da sein, die die Intelligenz der Menschen um vielfaches übertrifft. Jetzt wird auch klar, warum die grossen Firmen (Amazon, Google, Microsoft) eigene Kraftwerke brauchen, in Kapitel 3 ist der Bedarf an Energie für diese Supercluster beschrieben, da braucht man 20% der gesamten zur Verfügung stehenden Energie nur dafür und die Kosten dafür liegen Bereich hunderter Billionen US$. Die Maschinen werden von Robotern gebaut, in Fabriken, die Roboter gebaut haben….
Bei Heise war zu lesen, dass Open-AI ihn entlassen haben, weil er vor der Übernahme der AI durch die Chinesen gewarnt hatte (NVIDIA ist ja in Taiwan beheimatet) und in seinem Schlusskapetel wird er auch ordentlich patriotisch (obwohl er Deutscher ist):
  • Superintelligence is a matter of national security.
  • America must lead.
  • We need to not screw it up.
 

Je menschlicher ein Chatbot daherkommt, desto weniger oft und intensiv wird er von Benutzer-Seite her beleidigt.

Wie seht ihr das?
Ich tendiere eher zum Gegenteil. Begründung: wer sich mir gegenüber mit einer falschen Identität ausweist, hat auch auch jeglichen Anspruch auf nicht-beleidigung verwirkt. Denn wer mich täuschen will, darf sich über die Umkehrung des Täuschungsversuchs nicht beschweren.

Demnach tendiere ich eher dazu Systeme, die menschliches Verhalten nachahmen, ihnen auch auf den Leim zu gehen und das Spiel mitzumachen - in umgekehrter Form.

Die gezielte Beleidigung sehe ich als letzte Bastion der echten Menschen.
 
Ich habe eben schnell mal zusammen fassen wollen, was an MIDI 2.0 und den CIs so gut ist, frag die KI und der antwortet mir mit Worten die wie von mir sind. Ich guck nach - der hat meinen Gearnews Artikel als wesentliche Quelle verwendet.

Es sind sogar die Zusatzinfos dazu da, die ich extra gezeigt habe, dh - nützt ggf. jemand anderem jetzt auch - weil die bisherigen Infos dazu waren schwammig und so technisch, dass viele User sich darunter nichts vorstellen können.

KI kann also auch gut sein.
Für mich ist es etwas seltsam, wenn man da die einzige Quelle ist (ist nicht so, gibts auch von 2 anderen großen dt. Sites), gescannt wurden 4 - vermutlich sucht das System immer mit mehreren Quellen und gleicht die ab.

Ich selbst als Schreiber bei größeren Portalen habe mehr Einfluss als normale Leute auf KI Antworten. Das ist eigentlich nicht cool. Gute Informationen können auch sehr oft von den wirklichen Nerds kommen.

Hätte ich Quatsch über MIDI geschrieben, könnte ich diese Information zu einem gewissen Grade "verbiegen".
 
Ich habe heute mal die neue KI "DeepSeek" ausprobiert, vor der angeblich alle so Angst haben, weil sie noch besser sein soll (als OpenAI, GPT4.0 ect.)
Ergebnis: Deepseek phantasiert und halluziniert noch seltsamere Zusammenänge und wenn man sie dann zur Rede stellt, gibt sie auch noch falsche Quellen und besteht auf ihren offensichtlich falschen Quellen. Da muss man ja schon Angst haben undzwar nicht vor der KI, sondern vor den Menschen, die sie als Recherchetool für voll nehmen.
 
Mein Test ob Deepseek als Coding-Support was taugt (bzw. mehr taugt als Claude, das NN ist für mein Bedarf manchmal recht hilfreich) und war dabei sehr amüsiert, da dort ja jetzt die "Gedanken" der KI dann mitgelesen werden könnne. Angefangen von "was will der eigentlich von mir" dann über so Selbstgespräche von "ich könnte ja das hier mal probieren, oder geht dies vielleicht besser". Nur was sowas das als auch dies (und auch jenes was dann noch kam) völliger Bullshit. Vielleicht der falsche Anwendungsfall, und da ich es via Ollama lokal installiert habe, werde ich sicherlich noch eine Chance geben, im Moment sehe ich aber in der lokalen Installation auch den einzigsten Vorteil.

Ansonsten fand ich vor kurzen aber auch eine Recherche Session mit Claude ganz spannend, da kommt oft was sinnvolles heraus, aber halt auch einiges erfundenes. Auf meinen Hinweis, dass da Quellenangaben erfunden sind, bekam ich dann tatsächlich die Antwort "Oh, ertappt".
 

Je menschlicher ein Chatbot daherkommt, desto weniger oft und intensiv wird er von Benutzer-Seite her beleidigt.

Wie seht ihr das?
Ich tendiere eher zum Gegenteil. Begründung: wer sich mir gegenüber mit einer falschen Identität ausweist, hat auch auch jeglichen Anspruch auf nicht-beleidigung verwirkt. Denn wer mich täuschen will, darf sich über die Umkehrung des Täuschungsversuchs nicht beschweren.

Demnach tendiere ich eher dazu Systeme, die menschliches Verhalten nachahmen, ihnen auch auf den Leim zu gehen und das Spiel mitzumachen - in umgekehrter Form.

Die gezielte Beleidigung sehe ich als letzte Bastion der echten Menschen.
Ich habe einige Versuche mit Copilot, fast ausschließlich Fragen nach Fakten bzw. Zusammenhängen, die ich selber schon wusste (um den Output auf Wahrheit zu prüfen).
Aber es ging mir schon von Anfang an auf den Sack, dass die Ausgabe von Copilot, neben dem, was ich wissen wollte, irgendwelche Texterfindungen (vulgo: Halluzinationen) enthielten und immer wieder überflüssige Relativierungen (es gibt auch noch BLA und BLUBB) sowie "Rumgelaber" enthielt.
Das würde man wohl als "menschlich" bezeichnen.
Am Anfang konnte man Copilot noch in 3 Stufen von "unkreativ" bis "kreativ" [hab vergessen wie das hieß] einstellen, aber selbst dann war der Antworterguss überflüssig lang und das Rumgelaber ließ sich immer schwieriger abstellen, weil die 3 Stufen irgendwann nicht mehr verfügbar waren.
Dann kamen immer mehr faktische Fehler (vulgo Unsinn) raus, dass ich die Lust verlor.

Meine Prompts waren immer "an eine Maschine gerichtet" und nicht an einen "Menschen". Beleidigen kam mir nicht in den Sinn, weil ich zu sehr damit beschäftigt war, mit Hilfe von Copilot selbst, das Rauschen aus dem Output zu entfernen, bis ich irgendwann keinen Bock mehr hatte.
Mann war das scheiße. 🤮

EDIT: Ok, nicht wirklich etwas, was "für KI spricht".... sorry für den Rant.
 
Hallo zusammen,
ich habe gerade einen Clip "Fading Amber" hier gepostet, den ich zum Teil mit der Video-KI Kling.AI habe bauen lassen.
Kling.AI kommt aus China, der Konkurrent OpenAI Sora ist ja noch nicht für die Allgemeinheit zugänglich.
Letztlich braucht man ein Abo für die Nutzung, ich habe etwa 5€ Credits verbraucht.
Hat auf jedem Fall Spaß gemacht, und ich bin von einigen Sequenzen positiv beeindruckt.
 


Neueste Beiträge

News

Zurück
Oben