KI Gefahr für die Menschheit?

Tesla hat FSD 12.5 rausgebracht, für mich immer noch DER Vorzeigehack für angewandte KI! Es wird, in China fahren sie bald so als die Ersten.








Mal auf den Topic zurückzukommen, hier wird es zuerst so sein, dass die KI Menschenleben rettet weil FSD besser und sicherer fahren wird als die Menschen. Wie es sich verhält wenn die KI evolutioniert, das ist wieder kritisch.

Teslaaktie nach den earnings gestern 8% im Minus, ich habe aufgestockt!
 
Zuletzt bearbeitet:
Tesla hat FSD 12.5 rausgebracht, für mich immer noch DER Vorzeigehack für angewandte KI! Es wird, in China fahren sie bald so als die Ersten.








Mal auf den Topic zurückzukommen, hier wird es zuerst so sein, dass die KI Menschenleben rettet weil FSD besser und sicherer fahren wird als die Menschen. Wie es sich verhält wenn die KI evolutioniert, das ist wieder kritisch.

Teslaaktie nach den earnings gestern 8% im Minus, ich habe aufgestockt!


ja wir lieben Hot Dogs....
 
Nochmal derselbe post?

Na gut. Ich zitiere jetzt mal eine Stelle aus dem Artikel die dieser Artikel selbst zitiert... bzw. in dem dieser Blogger einen Artikel zitiert in dem er selbst zitiert wird.... also sich selbst zitiert. Und im grösseren Zusammenhang, nicht nur diesem zitat sondern dem gesamten FT Artikel, ging es eigentlich darum dass KIs die falschen bzw, unzureichende Daten gefüttert werden.

Ist ja auch klar, so ziemlich alle bisherigen grossen KI Projekte sind Uni-Projekte die dann durch Google, Microsoft, Facebook... eingekauft und monetarisiert wurden. In der Wirtschaft startet das jetzt erst.

"Generative AI’s current applications include writing, image and video creation, automated marketing, and processing information, according to the US Census Bureau’s Business Trends and Outlook Survey. Those are not particularly high value. Using specialist data, sophisticated models could do deeper scientific work, but that data can be in short supply or even restricted."

Kurz, auf Deutsch:
Spezialisierte Anwendungen von KI können bessere Ergebnisse liefern als etwas generalisiertes, wie ChatGPT etc., allerdings sind die Daten entweder zu wenig oder meist nicht zugänglich.

Jetzt sitzen wir in unserem KI Projekt hier auf tatsächlich streng geschützten Daten der letzten hundert Jahre.... und zwar ALLEN relevanten Daten... die aber auch uns gehören.
Wir haben viele, viele Terabytes rein an Datensätzen PLUS Dokumenten, Berichten, Akten.....
Bis das alles so eingetütet ist dass diese Daten, auch intern, zweifelsfrei legal für das Training genutzt werden können sind erstmal eine Menge Stellen und Leute involviert, die alle sehr gründlich arbeiten müssen damit das rechtlich unangreifbar ist, einem da nicht irgendwas unerwartet auf die Füsse fällt.

So ein Projekt dauert. Dann braucht man ja auch die Rechenkapazität fürs Training, das geht auch nicht von heute auf morgen... auch da gehts wieder darum dass man die Daten ja nicht ausser Haus geben kann, also angemietete Rechenkapazität in irgendeiner Cloud fällt aus, das muss dann schon in einem der eigenen RZs passieren.
Die Daten müssen dann auch aufbereitet werden, das sind teilweise eingescannter Microfilm noch mit Reichsadler drauf.... da muss man erstmal schauen wie das als Trainingsmaterial aufbereitet werden kann....

Und das meinte ich damit.... das ist alles viel zu frisch als dass da schon tatsächlich sinnvolle Anwendungen enstanden sind. Das dauert.
Und das angepeilte wirtschaftliche bzw. volkswirtschaftliche Ergebnis: potentiell enorm, sonst würden die Gelder nicht bewilligt werden. Es geht jedes Jahr um Milliarden, wenn die KI am Ende 20-30 Mio kostet und auf lange, vielleicht sehr lange Sicht irgendwann 100 Mio im jahr einsparen würde, wäre das ein sehr grosser Erfolg.

Ich wiederhole: Das Geschriebene ist Blödsinn. Es werden Studien und Artikel zitiert die sehr wohl richtig sind, aber die komplett falsche Folgerung daraus gezogen. Das ist ein Eintrag aus einem Blog, der von genau einem Menschen geschrieben wird. Keine Studie.
KI ist noch am Anfang.
Was der Typ da schreibt ist dasselbe wie wenn die Gewerkschaft der Hufschmiede 1886 schreibt dass "die neuen Patent-Motorwagen" nicht wirtschaftlich sind, weil die ja langsam sind, nix ziehen können und Benzin nur in der Apotheke in Kleinstmengen erhältlich ist.
 
Zuletzt bearbeitet:
Nochmal derselbe post?

Na gut. Ich zitiere jetzt mal eine Stelle aus dem Artikel die dieser Artikel selbst zitiert... bzw. in dem dieser Blogger einen Artikel zitiert in dem er selbst zitiert wird.... also sich selbst zitiert. Und im grösseren Zusammenhang, nicht nur diesem zitat sondern dem gesamten FT Artikel, ging es eigentlich darum dass KIs die falschen bzw, unzureichende Daten gefüttert werden.

Ist ja auch klar, so ziemlich alle bisherigen grossen KI Projekte sind Uni-Projekte die dann durch Google, Microsoft, Facebook... eingekauft und monetarisiert wurden. In der Wirtschaft startet das jetzt erst.

"Generative AI’s current applications include writing, image and video creation, automated marketing, and processing information, according to the US Census Bureau’s Business Trends and Outlook Survey. Those are not particularly high value. Using specialist data, sophisticated models could do deeper scientific work, but that data can be in short supply or even restricted."

Kurz, auf Deutsch:
Spezialisierte Anwendungen von KI können bessere Ergebnisse liefern als etwas generalisiertes, wie ChatGPT etc., allerdings sind die Daten entweder zu wenig oder meist nicht zugänglich.

Jetzt sitzen wir in unserem KI Projekt hier auf tatsächlich streng geschützten Daten der letzten hundert Jahre.... und zwar ALLEN relevanten Daten... die aber auch uns gehören.
Wir haben viele, viele Terabytes rein an Datensätzen PLUS Dokumenten, Berichten, Akten.....
Bis das alles so eingetütet ist dass diese Daten, auch intern, zweifelsfrei legal für das Training genutzt werden können sind erstmal eine Menge Stellen und Leute involviert, die alle sehr gründlich arbeiten müssen damit das rechtlich unangreifbar ist, einem da nicht irgendwas unerwartet auf die Füsse fällt.

So ein Projekt dauert. Dann braucht man ja auch die Rechenkapazität fürs Training, das geht auch nicht von heute auf morgen... auch da gehts wieder darum dass man die Daten ja nicht ausser Haus geben kann, also angemietete Rechenkapazität in irgendeiner Cloud fällt aus, das muss dann schon in einem der eigenen RZs passieren.
Die Daten müssen dann auch aufbereitet werden, das sind teilweise eingescannter Microfilm noch mit Reichsadler drauf.... da muss man erstmal schauen wie das als Trainingsmaterial aufbereitet werden kann....

Und das meinte ich damit.... das ist alles viel zu frisch als dass da schon tatsächlich sinnvolle Anwendungen enstanden sind. Das dauert.
Und das angepeilte wirtschaftliche bzw. volkswirtschaftliche Ergebnis: potentiell enorm, sonst würden die Gelder nicht bewilligt werden. Es geht jedes Jahr um Milliarden, wenn die KI am Ende 20-30 Mio kostet und auf lange, vielleicht sehr lange Sicht irgendwann 100 Mio im jahr einsparen würde, wäre das ein sehr grosser Erfolg.

Ich wiederhole: Das Geschriebene ist Blödsinn. Es werden Studien und Artikel zitiert die sehr wohl richtig sind, aber die komplett falsche Folgerung daraus gezogen. Das ist ein Eintrag aus einem Blog, der von genau einem Menschen geschrieben wird. Keine Studie.
KI ist noch am Anfang.
Was der Typ da schreibt ist dasselbe wie wenn die Gewerkschaft der Hufschmiede 1886 schreibt dass "die neuen Patent-Motorwagen" nicht wirtschaftlich sind, weil die ja langsam sind, nix ziehen können und Benzin nur in der Apotheke in Kleinstmengen erhältlich ist.

Ein wie auch immer geartetes IT Projekt dass der Menschheit einen echten Mehrwert gebracht hat, fernab vom Kapital, hab ich noch nicht gesehen. Wenn du daran glaubst, bitte sehr gern.

Ich wünsche vom ganzen Herzen dass du nicht im Burnout und tiefer Resignation landen wirst. Viele Grüße.
 
Zuletzt bearbeitet:
Ein wie auch immer geartetes IT Projekt dass der Menschheit einen echten Mehrwert gebracht hat, fernab vom Kapital, hab ich noch nicht gesehen. Wenn du daran glaubst, bitte sehr gern.

Ich wünsche vom ganzen Herzen dass du nicht im Burnout und tiefer Resignation landen wirst. Viele Grüße.
Ist ja aber auch tatsächlich schwierig den Standpunkt zu vertreten ( dass KI tatsächlich Mehrwert bieten kann ) wenn solche Projekte Schlagzeilen machen:


Das zu lesen tut schon körperlich weh.
 
Sabine Hossenfelder hat sich mal wieder aus dem Feld ihrer Kernkompetenz, Physik, herausgewagt und was zum finanziellen Aspekt der KI zusammengetragen.
 
Sabine Hossenfelder hat sich mal wieder aus dem Feld ihrer Kernkompetenz, Physik, herausgewagt und was zum finanziellen Aspekt der KI zusammengetragen.


Leider habe ich keine Ahnung von Physik, aber ich habe ein paar Videos von ihr über Topics gesehen, über die ich sehr gut Bescheid weiß und die waren wirklich furchtbar. Hier vermischt sie zwei komplett unterschiedliche Topics. AI generell und Large Language Models. ChatGTP ist ne tolle Sache, aber das echte Geld/Anwendung liegt in spezialisierten Sachen. AIs die auf sehr spezifische Tasks trainiert wurden, wie z.B. due Erkennung von Hautkrebs oder anhand eines Gesichtsfotos potenzielle Eigenschaften eines Paarungspartners erkennen. Da muss man nicht zu erst mit der Person ins Bett und merkt erst 2 Jahre später, dass die Person ein Arschloch ist.
 
anhand eines Gesichtsfotos potenzielle Eigenschaften eines Paarungspartners erkennen.
selbst wenn das möglich wäre, was ich nicht glaube, bräuchte man dafür wirklich eine KI? Ich finde es interessant wie Computer die Ur-Sinne der Menschen immer weiter abtrainieren sollen und werden.
Der Mensch der Zukunft wird ein erbärmlich stumpfsinniges Wesen sein denke ich. Er wird ohne seinen kleinen Taschencomputer absolut verloren sein. Wobei man das natürlich nicht pauschalisieren kann. Es hängt davon ab wie sehr man sich dem hingeben wird individuell. Man kann ja durch gespeichertes Wissen auch vieles lernen was der Ur-Mensch in hunderten Jahren lernen musste. Aber sich einfach nur noch auf Computer
verlassen lässt aus meiner Sicht mit der Zeit die Sinne verkümmern. KI zielt doch auch darauf ab. Nicht mehr selbst denken zu müssen.
 
Zuletzt bearbeitet:
selbst wenn das möglich wäre, was ich nicht glaube, bräuchte man dafür wirklich eine KI? Ich finde es interessant wie Computer die Ur-Sinne der Menschen immer weiter abtrainieren sollen und werden.
Der Mensch der Zukunft wird ein erbärmlich stumpfsinniges Wesen sein denke ich. Er wird ohne seinen kleinen Taschencomputer absolut verloren sein. Wobei man das natürlich nicht pauschalisieren kann. Es hängt davon ab wie sehr man sich dem hingeben wird individuell. Man kann ja durch gespeichertes Wissen auch vieles lernen was der Ur-Mensch in hunderten Jahren lernen musste. Aber sich einfach nur noch auf Computer
verlassen lässt aus meiner Sicht mit der Zeit die Sinne verkümmern. KI zielt doch auch darauf ab. Nicht mehr selbst denken zu müssen.
Wir sind doch jetzt schon abhängig vom Taschencomputer. Was neue Generationen an Allgemeinwissen / Wissen möglicherweise mal hätten haben können steckt bequem in der Hosentasche. Alles davon.
Wissen ist jetzt die Fähigkeit, dort Wahrheit von Fälschung, Fakten von Geschwurbel unterscheiden zu können und dabei hiltft uns... nur unser erlerntes, erlebtes Wissen.
Ein Kreis, der immer löchriger und unförmiger wird was man besonders gut dort beobachten kann wo schon immer weniger Erlerntes, Erlebtes vorhanden war.

Das ist so definitiv gesetzt. Das geht auch nicht mehr weg, wird potentiell durch bestimmte aktuelle KIs jetzt noch verstärkt werden können wenn Bilder, Videos und selbst die Stimme von Menschen nicht mehr Vertrauenswürdig sind.
Das ist jetzt auch schon gesetzt. Und der Grund warum einige Projekte jetzt noch nicht öffentlich zugänglich sind, auch wenn das nur eine Frage der Zeit ist bis das auf die eine oder andere Art passieren wird.

Die Herausforderung liegt künftig darin, eine "Gute" Ki zu schaffen, die diesen Wust auflösen kann. Den Müll entsorgen. Der Mensch wird dazu nicht mehr in der Lage sein.
Ist er ja jetzt schon, ohne KI und überzeugend gefakte Videos, nicht mehr, wenn man all das wirklich in der Masse verbreitete Geschwurbel der letzten Jahre nimmt.
Wir sind schon lange über den Punkt wo das Internet selbst von einem sauberen Ort des Wissens zu einer Gefahr für die Menschheit wurde, da brauchts keine KI mehr dazu, da reichen die normalen Social-Media Algorithmen.

Doch wie soll so eine KI trainiert werden, wo doch alle einfachen Quellen schon "kontaminiert" sind, wie soll man einer KI vertrauen können?
Das wird die Herausforderung der aktuellen KI Projekte werden. Saubere Trainingsdaten. Saubere, immer AKTUELLE Daten. Selbst ChatGPT verarbeitet im Moment nur alte Daten. Und OFFENE Daten, OFFENER Quellcode...
Nur damit kann Manipulation wirklich sichtbar ausgeschlossen werden und andererseits Manipulation im Netz glaubwürdig aufgedeckt.
Diejenigen die fähig sind Wissenschaft grundsätzlich als unglaubwürdig zu lesen wenn ihnen die Fakten nicht passen wird man damit nicht erreichen, aber das sind gar nicht so viele, Spinner gabs schon immer.

Aber:
Eine KI wie ChatGPT ist dazu derzeit noch nicht in der Lage.
Alle KI Projekte, Beteiligten, Wähler, die Menschheit, WIR haben eine Bringschuld.... KI jetzt in die richtige Richtung zu lenken. Nicht nur drüber zu jammern und schwurbeln, das wird keine Änderung herbeiführen, auch wenn das leicht ist.
Würde ich einer KI erlauben meine geschriebenen Artikel als Trainingsdaten zu verwenden, auch ohne Tantiemen oder Erwähnung? JA NATÜRLICH, wenn die gut recherchiert sind und ich von der Richtigkeit meiner Aussagen darin überzeugt bin.
KI "gutes" Trainingsmaterial aus Gründen wie Tantiemen, Urheberrecht etc. vorzuenthalten wäre der grösste Fehler den wir jetzt machen können, den seriöse Medienunternehmen machen können. Das ist das, was genau wir genau jetzt über Projekte, Gesetze etc. in der Hand haben wie die Zukunft mit der KI werden wird. Das ist der Kampf, der derzeit ausgefochten wird, auch in den KI Projekten selbst.
Kommen wird die KI. Können wir über unseren Schatten springen und die in die richtige Richtung lenken? Tja. Einige von uns können zumindest guten Gewissens sein haben es versucht zu haben statt einfach nur permanent "WIR WERRDEN ALLE STERBEN" zu jammern und "mal grundsätzlich dagegen" zu sein, auch wenn dieser Reflex bei uns verbreitet ist. Oder sofortige finanzielle Gewinne darin zu suchen und den Erfolg ausschliesslich damit zu messen. Wir sind keine Amis und sollten auch andere Maßeinheiten als Geld haben.
Wir sind jetzt dafür verantwortlich was der Taschencomputer zukünftig antworten wird wenn unsere Kids fragen "SIRI, was passiert gerade wirklich? Was ist richtig? Was ist damals wirklich passiert?"
 
Zuletzt bearbeitet:
Hier vermischt sie zwei komplett unterschiedliche Topics. AI generell und Large Language Models. ChatGTP ist ne tolle Sache, aber das echte Geld/Anwendung liegt in spezialisierten Sachen. AIs die auf sehr spezifische Tasks trainiert wurden
Ach so? Large Language Models sind keine auf Vortäuschung eines kompetenten Gesprächspartners spezialisierte KI, die darauf trainiert wurde zu schreiben, was im diskurssituativen Kontext der jeweiligen Ziel- bzw. Hauptabnehmergruppe am wahrscheinlichsten glaubwürdig und hilfreich erscheint? Als solche gedacht sind LLMs sicher sehr gute, und immer perfektere (Selbst-)Betrugsmasch(in)en.

LLMs werden nun mal oft mit KI generell gleichgesetzt, wie ganz kleine Kinder zu allem Wauwau sagen, selbst wenn es ein Auto ist. In der Linguistik nennt man das Hypergeneralisierung. LLMs versteht daher bis heute keine Sau, in der Hinsicht ist Sabine Hossenfelder in meinen Augen unschuldig, die mag den Unterschied kennen, muss halt aber auch ihre Werbung an ein Publikum bringen, für das der Unterschied unbegreiflich oder auch völlig irrelevant sein mag. Die Dame versucht offenbar mit Wissensverbreitung auf Youtube Geld zu machen.

Ihr Englisch ist dabei aber ganz schön deutsch in der Prosodie, puh. Hat aber den Vorteil, dass deutschsprachige Leute wie ich sie verstehen, andere Sprecher abseits des englischen, also indogermanischer Sprachen vielleicht auch.

Man sollte tatsächlich unterscheiden zwischen esoterischer und empirisch-basierter KI, wobei letzte im Gegensatz zur ersteren mit wissenschaftlich fundierten, kuratierten, sauberen Trainingsdaten gefüttert werden. Mit der zweiten Sorte fremdel ich zwar ebenso, auch wenn ich die empirischen Wissenschaften beruflich unterstütze, nun, wenn es sein muss, auch mit KI. Aber geht mir weg immer noch mit LLM-gestützten Sprachinterfaces. Ich brauch qua freier Wille, um meine Brötchen zu verdienen, Direktzugriff auf deterministische Parser via Tastaturzugriff, und wenn ich mich damit irgendwann als zu alter, intellektuell festgefahrener Sack qualifizier, also für den Job disqualifizier, dann halt tschüss.

Kommen wird die KI. Können wir über unseren Schatten springen und die in die richtige Richtung lenken? Tja. Einige von uns können zumindest guten Gewissens sein haben es versucht zu haben statt einfach nur permanent "WIR WERRDEN ALLE STERBEN" zu jammern und "mal grundsätzlich dagegen" zu sein, auch wenn dieser Reflex bei uns verbreitet ist.
Tja, leider besteht die Welt nicht nur aus Inkarnationen deiner selbst. Die Welt ist halt nicht perfekt.

Es gibt bestimmt viele hier, die sich auch nicht dem erstbesten Seelenfänger, Scharlatan oder Schlangenölverticker in der Fußgängerzone an den Hals werfen würden, der ihnen zur Selbsterneuerung Seminare zum Kurs einer Weltreise aufnötigt und sie bedrängt auch ja keinen "Bullshit" über sie zu verbreiten. Ist ja auch unerhört, es nicht mit einem Fenstersprung aus dem sechsten Stock zu probieren und auch noch andere Leute davon abzuraten, so wisse man ja gar nicht, welches Paradies auf einen durch diese Art des Suizids im Universum oder Jenseits warte oder welche Machtlizenzen ihnen von irgendeiner ominösen Existenz ausgestellt werde.
Es gibt Skeptiker. Leb damit oder lass es bleiben.

Mein Nachbar wird gestern wie heute wie morgen (oder Montag) die Kinderlein in seinen Hummer verfrachten, um sie zum Rewe um die Ecke zu karren für allerlei Süßigkeiten und Co. Klimawandel? Nie gehört. Und ihm willst du erzählen, doch bitte bei der Erziehung von KI und ihren Anbietern mitzuwirken?

Danke für die Unterhaltung, es ist wieder mal Zeit für den Ausknopf. (Hier Löwenzahnjingle pfeifen)
 
  • Daumen hoch
M.i.a.u.: Cee
Ach so? Large Language Models sind keine auf Vortäuschung eines kompetenten Gesprächspartners spezialisierte KI, die darauf trainiert wurde zu schreiben, was im diskurssituativen Kontext der jeweiligen Ziel- bzw. Hauptabnehmergruppe am wahrscheinlichsten glaubwürdig und hilfreich erscheint? Als solche gedacht sind LLMs sicher sehr gute, und immer perfektere (Selbst-)Betrugsmasch(in)en.

LLMs werden nun mal oft mit KI generell gleichgesetzt, wie ganz kleine Kinder zu allem Wauwau sagen, selbst wenn es ein Auto ist. In der Linguistik nennt man das Hypergeneralisierung. LLMs versteht daher bis heute keine Sau, in der Hinsicht ist Sabine Hossenfelder in meinen Augen unschuldig, die mag den Unterschied kennen, muss halt aber auch ihre Werbung an ein Publikum bringen, für das der Unterschied unbegreiflich oder auch völlig irrelevant sein mag. Die Dame versucht offenbar mit Wissensverbreitung auf Youtube Geld zu machen.

Ihr Englisch ist dabei aber ganz schön deutsch in der Prosodie, puh. Hat aber den Vorteil, dass deutschsprachige Leute wie ich sie verstehen, andere Sprecher abseits des englischen, also indogermanischer Sprachen vielleicht auch.

Man sollte tatsächlich unterscheiden zwischen esoterischer und empirisch-basierter KI, wobei letzte im Gegensatz zur ersteren mit wissenschaftlich fundierten, kuratierten, sauberen Trainingsdaten gefüttert werden. Mit der zweiten Sorte fremdel ich zwar ebenso, auch wenn ich die empirischen Wissenschaften beruflich unterstütze, nun, wenn es sein muss, auch mit KI. Aber geht mir weg immer noch mit LLM-gestützten Sprachinterfaces. Ich brauch qua freier Wille, um meine Brötchen zu verdienen, Direktzugriff auf deterministische Parser via Tastaturzugriff, und wenn ich mich damit irgendwann als zu alter, intellektuell festgefahrener Sack qualifizier, also für den Job disqualifizier, dann halt tschüss.


Tja, leider besteht die Welt nicht nur aus Inkarnationen deiner selbst. Die Welt ist halt nicht perfekt.

Es gibt bestimmt viele hier, die sich auch nicht dem erstbesten Seelenfänger, Scharlatan oder Schlangenölverticker in der Fußgängerzone an den Hals werfen würden, der ihnen zur Selbsterneuerung Seminare zum Kurs einer Weltreise aufnötigt und sie bedrängt auch ja keinen "Bullshit" über sie zu verbreiten. Ist ja auch unerhört, es nicht mit einem Fenstersprung aus dem sechsten Stock zu probieren und auch noch andere Leute davon abzuraten, so wisse man ja gar nicht, welches Paradies auf einen durch diese Art des Suizids im Universum oder Jenseits warte oder welche Machtlizenzen ihnen von irgendeiner ominösen Existenz ausgestellt werde.
Es gibt Skeptiker. Leb damit oder lass es bleiben.

Mein Nachbar wird gestern wie heute wie morgen (oder Montag) die Kinderlein in seinen Hummer verfrachten, um sie zum Rewe um die Ecke zu karren für allerlei Süßigkeiten und Co. Klimawandel? Nie gehört. Und ihm willst du erzählen, doch bitte bei der Erziehung von KI und ihren Anbietern mitzuwirken?

Danke für die Unterhaltung, es ist wieder mal Zeit für den Ausknopf. (Hier Löwenzahnjingle pfeifen)

Ihre Kernaussage ist, dass sich im AI Markt kein Geld verdienen lässt, weil das Training von LLM eben sehr kostenintensiv ist und somit nur wenige Firmen AIs leisten können. Sie verknüpft hier zwei Dinge die eben nicht zusammen passen. Einmal zitiert sie Leute die den gesamten AI Markt betrachten und dort eben einen großen Markt sehen und sie versucht es zu widerlegen indem sie andere Leute zitiert, die sich nur auf LLM beziehen. Wie gesagt, ist mir schon bei anderen Topics sehr negativ aufgefallen und deshalb lasse ich auch bei Physik-Videos die Finger von ihr, weil ich mich hier nicht auskenne und wenn da ebenfalls die Aussagen so konstruiert sind, ich selbst das eben nicht im Kopf korrigieren kann.
 
Frage Dich immer, wer davon wohl profitieren könnte...
das ist natürlich auch mit klar. Ich frage mich wie unterschiedlich die Menschen reagieren bzw aggieren. Wird es welche geben die nicht gleich das Händi zücken bei Fragen und unklarheiten?
So richtig Oldschool erstmal nachdenken wie es denn sein könnte hat doch auch was. Aber auch mit Digitalen Diensten ist es doch bei vielen Dingen so daß man eigentlich gar nicht mehr
lernen müßte wenn man es nicht doch wollte. Oder Stichwort Frickelarbeit....sortieren oder frickeln ist doch eigentlich etwas gutes, was dem Kopf gut tun kann wenn man step by step etwas zusammenfrickelt.
Klar, man kann die Zeit in der man nicht frickeln muß für etwas anderes verwenden um z.B. schneller ans Ziel zu kommen, aber was ist wenn irgendwann gar nichts mehr zu tun ist für den Menschen.
Ist in Zukunft das Ziel der Weg bzw. der Weg weg?
 
Interessantes Interview:

Auf jeden Fall aber die wollen einem ein Probe Abbo aufzwingen
Ich werde mal hier schmöckern. :cool:


...interessant! Ja , man muß die Chancen sehen wie AI in den großen Fragen helfen kann. Die Industrie bei und und wie geschrieben in Österreich scheint
das zum Teil noch nicht begriffen haben. Bedeuted wer jetzt nicht auf den Zug aufspringen wird für den wirds gefährlich🤔 Regulation bzw. Gesetzkram finde ich dennoch richtig
aber es sollte schnell gehen.
 
Zuletzt bearbeitet:


naja...
ausser dass da ein neuer Kadett verspricht, den Golf vom Markt zu fegen
und das KI ja nur gut für die Menschheit und deren Problemlösung ist ...muss er ja sagen...

was mit Technologien am Ende menschenfeindliches angestellt wird
das blenden unsere Forscher immer gerne aus
 
"Irgendwo in Linz, auf den Severn der Johannes Kepler Universität, liegt ein Algorythmus, der das Zeug hat das derzeit so gehypte ChatCPT vom Markt zu fegen."

Der Algorythmus, wo ich immer mit muss...
 
Wenn die KI wirklich alles Wissen schon aufgenommen hat, warum kommt dann nicht überall aus den KI Programmen :

Hört auf mit dem Wahnsinn - stoppt die Kriege und schafft eine menschliche Welt. Alles andere hat nichts gebracht!
 
Wenn die KI wirklich alles Wissen schon aufgenommen hat, warum kommt dann nicht überall aus den KI Programmen :

Hört auf mit dem Wahnsinn - stoppt die Kriege und schafft eine menschliche Welt. Alles andere hat nichts gebracht!
🤔Hmm...Eine KI wird zumindest bestätigen daß der Mensch im großen und ganzen auch heute noch ein wilder Knochenmann ist ,der nicht nur zum überleben tötet und sammelt.
Die KI wird bestimmt auch bestätigen daß er aber in Urzeiten noch im Einklang mit der Natur gelebt hat und sich z.B. die Normadenstämme aus dem Weg gegangen sind anstatt Krieg zu machen.
Erst als der "Knochenmann" seßhaft wurde, kam der Anspruch auf Grundbesitz. Ich benutze übrigens das Wort Knochenmann weil wir Menschen ja schon sehr leidige Wesen sind mit unseren Knochen
gegenüber der Schwerkraft. Wenn man uns mit den Insekten vergleicht sind wir doch total anfällig. Und meiner Meinung nicht nur Ohysisch sondern auch Psychisch, weil wir doch sehr komplexe Wesen sind.
Aber sehr unperfekt wie ich finde. Überall in der Natür trifft man z.B, auf perfekte Anpassung oder perfekte Eigenschaften. Nicht so beim Menschen. Und mir kommt es so vor daß wir uns in eine Zeit bewegen
in der alles immer unperfekter und anfälliger wird, weil alles noch komplexer wird. Nur mal so ein Gedankengang von mir 🤔 Die einfachsten Werkzeuge und Maschinen sind bekanntlich die perfektesten.
 
Zuletzt bearbeitet:
Ihre Kernaussage ist, dass sich im AI Markt kein Geld verdienen lässt, weil das Training von LLM eben sehr kostenintensiv ist und somit nur wenige Firmen AIs leisten können.
Ich denke auch, dass sie mit dieser Aussage, wenn sie denn so richtig verstanden wurde, auf dem Holzweg ist. Es gibt Vorstellungen, also ein Geschäftsmodell, dass jede Firma ihren eigenen KI-Agenten bekommt, der über alle firmenrelevanten Prozesse beraten kann, weil er entsprechend angelernt wurde. Und damit lässt sich dann sehr viel Geld verdienen. Und das ist nur ein Beispiel.
 


Zurück
Oben