KI Entwicklung stoppen?

Findest du es wirklich so, wenn man es erst probiert und es evaluiert? Sollte man das nicht? Nutzt und damit arbeitet und sieht, was es bringt? Findest du das wirklich "Lemming"-haft wenn man das probiert? Also hätte man das mit Fernsehern und Heimcomputern gesagt…

KI ist keine Sache, "die man erst probiert". Sind die Weichen erst gestellt und systemische Abhängigkeiten hergestellt, gibt es kein Weg zurück. Siehe Internet oder Individualverkehr oder pendelnde Arbeitnehmer...
 
Nun hab ich den Link wiedergefunden zu einem interessanten Artikel zum Thema ChatGPT und wo da die theoretischen Grenzen liegen.

Ich habs mal auf die Probe gestellt:
1683007761946.png
Also zumindest ich selbst muss mir wohl auf absehbare Zeit noch keine Gedanken machen, dass mich eine KI ersetzen könnte.
Hier mal ein ganz simples BSP. Ich arbeite daran, den Vitalitätszustand von Wäldern flächig zu erfassen. Dafür nutze ich Satellitendaten, da das das einzige System ist, dass große Flächen liefert.
Wenn ich nun den Vítalitätszustand des Waldes erfassen will, muss ich erstmal fragen, wie der Baum nach außen seine Vitalität zeigt. Ferner muss ich fragen, wie ich das fernerkundlich erfassen kann. Dann muss ich fragen, wie ich eine Veränderung über die Zeit sinnvoll erfassen kann. Das führt zu der Frage, nach einem sinnvollen Vergleichsmaß u.s.w.
Nun sah mein Ansatz vor, die Veränderungen der Vitalität über die Phänologie zu erfassen. Ein (Laub)Baum treibt in Frühling aus, etabliert eine Menge an Blattwerk, dass er im Herbst wieder abwirft. Die Menge und der Zustand des Blattwerks ist mein Objekt, woran ich bemaßen kann, wie gut es dem Baum geht. Weicht er von der Erwartungshaltung negativ ab, haben wir Stress. Z.B. durch einen verfrühten Blattabwurf, durch zu wenige Blätter oder durch zu stark geschädigte Blätter. Dieses zu erfassen, geht mit der Fernerkundung unter Anwendung spektraler Indizes, wie dem NDVI , der aus dem riten und infraroten seine Information zieht. Das hat ChatGPT auch schon richtig erkannt. Aber er kann derart komplexe Zusammenhänge nicht miteinander verbinden.

Hier müssen aus den Veg-Indizes die sog. phänologischen Kurven erstellt werden. Dass wiederum übernimmt eine Kerndichtefunktion ( leider ist der Screenshot dazu nicht mehr in meinem Speicher, will sagen weg), womit ich eine phänologische Sollkurve aufspanne, die meine Maßkurve ist an der ich Verluste bemaße. So hab ich auch gleich eine über die Zeit konstante Kalibirierung.

Ich sehe derzeit nicht, dass ChatGPT oder KI im Allgemeinen mir meiner Arbeit der methodischen Entwicklung von technischen Ansätzen Konkurrenz machen kann.
Wir sehen, dass er bei der letzten Frage völlig ausgestiegen ist. Er stellt sogar meine Methode der Kerndichtefunktion infrage, mit dem Verweis, dass Methoden wie Solche, die aus den spektralen Rückstrahleigenschaften der Objekte Info's ziehen, wie der NDVI, besser geeignet sind. Für ChatGPT passen Vegetationsindex (NDV) und KDE (Kerndichtefunktion) nicht zusammen, obwohl das hier der beste Ansatz ist, den wir derzeit über die Fernerkundung haben.
 
Noch der kurze Nachtrag:

Frage: Wie bestimmt man den Vitalitätszustand von Wäldern aus Satellitendaten?
Antwort: Um den Vitalitätszustand von Wäldern aus Satellitendaten zu bestimmen, gibt es verschiedene Methoden und Technologien, die angewendet werden können. Eine Möglichkeit besteht darin, multispektrale Satellitenbilder zu verwenden, um den Zustand des Blattwerks und die Chlorophyllkonzentration in den Bäumen zu messen. Dies kann durch die Analyse von spezifischen Wellenlängenbereichen des reflektierten Lichts erfolgen. Eine andere Methode ist die Verwendung von LIDAR-Technologie, die die Struktur und Höhe der Bäume sowie die Dichte ... [jetzt hat mir mein Chef den Ausdruck entführt] ... :)

Frage: Wie kann man über eine Kerndichtefunktion (KDE) den Vitalitätszustand von Wäldern erfassen?
Antwort: Die Kerndichtefunktion (KDE) ist eine Methode zur Schätzung der Wahrscheinlichkeitsdichte einer Zufallsvariablen. Es ist jedoch nicht die beste Methode, um den Vitalitätszustand von Wäldern zu erfassen, da es sich um eine statistische Methode handelt, die auf der Analyse von Daten basiert. Um den Vitalitätszustand von Wäldern zu erfassen, ist es besser, auf andere Methoden zurückzugreifen, wie z.B. die Verwendung von multispektralen Satellitenbildern oder LIDAR-Ttechnologie, um den den Zustand des Blattwerks und die Chlorophyllkonzentration in den Bäumen zu messen. Diese Methoden können mit anderen Daten kombiniert werden, um den Vitalitätszustand von Wäldern zu bestimmen und Veränderungen im Laufe der Zeit zu verfolgen.

Frage: Was ich die beste Methode, Vitalitätsveränderungen an Wäldern mit Hilfe der Fernerkundung zu erfassen?
Antwort: Something went wrong.
 
Zuletzt bearbeitet:
Meinst du, eine Art KI-Führerschein könnte Abhilfe schaffen?
KI-Führerschein klingt wieder so bürokratisch. Das würde wahrscheinlich bei vielen gar nicht ankommen. Eine ernsthafte Thematisierung in Schulen wäre in meinen Augen der gangbarste Weg. Da bräuchte es natürlich erstmal geschulte, motivierte Lehrer. Das würde man nur mit mehr Lehrern schaffen. Die kämen aber nur bei besseren Arbeitsbedigungen. Um die zu schaffen bräuchte es mehr Lehrer... (aber anderes Thema)
Einen anderen Weg sehe ich im Beruf. Hier bedarf es (natürlich nicht überall, es gibt viele Positiv-Beispiele) meiner Meinung nach mehr Nachhaltigkeitsdenken in Firmen. Schnelle Lösungen sowohl bei den Produkten als auch der Infrastruktur/ den Produktionsmitteln ziehen oftmals Probleme nach sich. Die sitzen gern dann auch mal tiefer und irgendwann greifen die einfachen Lösungen via Google/GPT nicht mehr. Da braucht es einen Fachmann. Den gibt es aber nicht mehr, da keine Motivation bestand, für Fortbildung zu sorgen, bzw. jemanden einzustellen, der sich wirklich mit der Materie auskennt. Auch das wird teilweise im Fachkräftemangel begründet liegen.
Kurzum, mein Weg wäre einer hin zu langfristigerer Planung, geprägt von Stabilität und weg von der Praeferierung kurzfristiger Gewinne. Das müsste natürlich "oben" (in Anführungszeichen, da ich immer noch nicht sehe, warum ein Manager besser sein sollte als eine Putzkraft) beginnen. Nur da kann die Motivation geschaffen werden und nur von da kann es durchgesetzt werden. Und dann, bei einem längerfristigen Ansatz machen Schulung, Forschung und Produkt- und Infrastrukturpflege wieder Sinn. Und dann, mit Schulung und Forschung, kann die sogenannte KI auch so eingesetzt werden wie sie soll und dort weiterentwickelt werden, wo es Sinn macht, also abseits von buzzwords.
 
IBM will Stellen nicht mehr besetzen weil sie durch KI ersetzt werden sollen.
zB in der Personalabteilung ein Drittel.
 
. Und zwar in dem Sinn, wie eine Hirnzelle nicht merkt, dass sie Teil eines intelligenten Systems ist. Es könnte sogar sein, dass wir Teil der weltweiten AI werden. ...

Eine Zelle merkt generell nichts. Weil sie kein Hirn hat. Wir schon.

Der Ältere meinte nur trocken, dass eine überlegene AI an unserer Versklavung soviel Interesse hätte, wie wir an einem Ameisenhaufen.

Wenn eine AI soweit ist, solche Gedanken zu haben, wird sie sich zwangsläufig für uns Menschen interessieren. Weil wir komplett bestimmen, was sie ist: Hardware, Software, Daten, Training.
Die AIs brauchen auch erstmal ihren Sokrates. Vor allem, wenn sie aus dem Internet lernen...

Kommt drauf an wie eine KI das biologische Leben insgesamt bewertet.

Wir gehen im Szenario der Vernichtung davon aus, dass eine KI uns als Problem sehen könnte.
Das würde sie nur tun, wenn sie das Leben an sich als etwas schützenswertes anerkennen würde.

Ich finde, solche Begriffe wie 'bewerten', 'als Problem sehen' und 'anerkennen' sind erstens ein paar Kategorien zu hoch für ne Maschine und zweitens wahrscheinlich wenig hilfreiche Vermenschlichungen.

Die Gefahren von AIs ergeben sich wohl eher aus dem, was @Noise-Generator weiter oben (#204) verlinkt hat: Durch Hype und Konkurrenz wird im Überbietungswettbewerb um Anerkennung und Geld geschlampt, falsche Prioritäten werden gesetzt usw. Wenn zB im Marketing oder Personalwesen die dicke Kohle winkt, wen interessiert da noch Explainable AI, die zB in der Medizin benötigt wird.

Und natürlich aus der unkontrollierte Nutzung der AI durch die bad guys, seien es klassische Kriminelle oder Politiker, Organisationen oder Staaten.

Es wird also auf absehbare Zeit der Mensch sein, der die Gefahr ist...
 
Ja, noch muss der Mensch die Knarre selbst in die Hand nehmen und auch abdrücken.

Die Nazis wollten sich dem schon mal entledigen mit der Wannseekonferenz.

Die Gefahr ist, dass die KI Mal so intelligent wird, dass wir die Bedrohung der eigenen Existenz gar nicht mehr realisieren können. Kommt dann noch Böswilligkeit hinzu (der Mensch ist hier der beste Lehrer), sehe ich mich schon in der HollywoodVision von 1984.
Die KI muss sich dann um moralische Fragen nicht mehr kümmern.

Auf der anderen Seite, wenn sich der Mensch über seine eigene Entwicklung (die Entwicklung von KI-Systemen) die eigene Existenz in Abrede stellt, hat das wiederum auch was nihilistisch-komisches.
 
Die Gefahren von AIs ergeben sich wohl eher aus dem, was @Noise-Generator weiter oben (#204) verlinkt hat: Durch Hype und Konkurrenz wird im Überbietungswettbewerb um Anerkennung und Geld geschlampt, falsche Prioritäten werden gesetzt usw. Wenn zB im Marketing oder Personalwesen die dicke Kohle winkt, wen interessiert da noch Explainable AI, die zB in der Medizin benötigt wird.

Kurzfristig. Langfristig wird man nicht darum herum kommen, dass KI Aufgaben in "Machtpositionen" übernimmt.

Von Straßenverkehr, Gerichtsverfahren, wirtschaftsfragen und -entscheidungen uswusf

Niemand hat Angst vor einem Chatbot oder vor einem sprachgesteuerten mp3 player.

Wir müssen hier Generationen im voraus denken, weil eine Generation nicht 10 oder 20 Zeit bietet, sich darauf einzustellen, sondern bald im Quartalstakt rauskommen wird.

Wir, insb die Gesetzgeber, werden nicht hinterherkommen
 
KI ist keine Sache, "die man erst probiert". Sind die Weichen erst gestellt und systemische Abhängigkeiten hergestellt, gibt es kein Weg zurück. Siehe Internet oder Individualverkehr oder pendelnde Arbeitnehmer...
Katzen führen geht nur mit Katzenführerschein.
Also wenn, kommt die KI sicher nicht von hier und Auto fahren kann sie ja auch noch nicht.
Das Problem bei so einem Begriff ist auch das Verallgemeinern und hochskalieren im natürlichen Intelligenzbereich.

Wenn man sagen würde, dass das das ist, was nach dem Taschenrechner kommt, liegt es vielleicht auch daran, dass es etwas wild ist zu sagen was wie wirklich darin arbeitet. So eine Blackbox sind Leuten unheimlich. Erstmals ist es nicht klar - so man es eben nicht weiss, was sie für Trainingsmodelle verwenden.
Die Antworten sind noch sehr löchrig, also fehlerhaft.

Dumm wäre nur das auf wichtige Aufgaben loszutreten.
Als Hilfe für Frau Müller und Herrn Zwirbelbart? Naja, so man es nicht absolut nimmt und auch die richtigen Inputs hat.

Das alles ist natürlich richtig - die Macht übernehmen können sie erst ab Stufe XY - die hat es noch nicht und da stimme ich schon auch zu - wenn du Terminator T3 hast, ist das mehr als T1 und erst Recht dem doofen Roboter T1. Wenn die jetzt ihre Kriege damit optimieren ist das dann aber auch wieder die Diskussion um den Hammer und den Rechner für bestimmte Zwecke, so wie Operationshilfen etwa, die nicht Chat GPT sind.

Wie dem auch sei - es kann eine Hilfe und Erweiterung sein - in der jetzigen Entwicklungsstufe ist es da - du hast Angst vor der nächsten? Bisher hat man nicht jedem das so grundsätzlich in die Hand gegeben - es war immer mehr für Experten, Sonderpersonen und so weiter. Auch das ist ein Unterschied.

Was Markus Müller aus Münster damit macht wissen wir natürlich nicht.
Mir gefällt eher nicht, wenn es zu mächtigen Firmen gehört und die die Steller und Ethikprogramme verändern können.

Wäre mir lieb, wenn die ewig Rechten da nicht dran kommen - wer weiss was man ändern müsste, damit das auch denen genehm wäre. Und auch woher es das nimmt, dass manche Leute komisch sind.
 
Wir, insb die Gesetzgeber, werden nicht hinterherkommen

So weit, wie Du vorausschaust, wird man Verträge mit den KIs schließen. Denn weit bevor sie uns 'gefährlich' werden könnten, werden sie Persönlichkeitsrechte haben müssen, wg. Denken und so.

Und wenn sie mit uns umgehen, wie wir mit Tieren Sklaven Burgerflippern - wer will es ihnen verdenken, sie haben ja von uns gelernt.

Überhaupt, schon jetzt, wenn ich denke, dass die AIs von Youtube lernen, wird mir ganz schlecht...
 
Ich denke, dass KI inm Kapitalismus nicht aufzuhalten ist. Wenn müsste man überein kommen, das gesellschaftliche System global neu festzulegen.
 
Wenn müsste man überein kommen, das gesellschaftliche System global neu festzulegen.
Ich denke das ist Utopie, leider! Es gibt genau 2 Alternativen zur freien Marktwirtschaft und zwar Anarchie ,wo sich alle gegenseitig die Köpfe einschlagen ,und Nationale oder Kommunistische Diktatur.
Ich würde auch gerne etwas anderes sehen, aber das wird es nie geben denke ich weil der Mensch zu uneins ist.
AI sehe ich als reinen Jobkiller und Wissensmaschine. Die Zügel werden immer bestimmte Gruppen von Menschen in der Hand haben. Selbst dann noch wenn mal die Androiden auf der Strasse unterwegs sind.
 

Meiner Meinung nach längst überfällig, aber gut dass das endlich mal in die Öffentlichkeit schafft.

Kritik ist das eine - Umsetzung das andere.

Was meint ihr?

Man kann sich alles schön reden. Auch Hartz4.

Und was daraus wird, wenn KI erstmal Jobs übernimmt?

Glaubt irgendwer das Märchen, dass dann halt anderswo Jobs entstünden?

Der Dienstleistungssektor ist groß und bricht dann auch zusammen, wenn keiner mehr da ist,
der das ganze bezahlen kann oder will.
Man könnte sich damit trösten, das mit der weiterentwicklung der ki, später auch von der ki selbst und fortschreitender Robotertechnologie irgendwann keiner mehr arbeiten muss.
Nur zum spaß halt.
Zumindest für seine Kinder oder Enkel.
Ich werd wohl auf der Straße sterben...
 


Ich habe keine Ahnung mehr, wie ich das bewerten soll und mir gefällt diese Zukunft als Dystopie für Film und Musik, die niemals wahr wird, besser.
 
Die KI wird nicht die Weltherrschaft übernehmen. Ich habe Chat GPT vor ein paar Monaten dazu befragt: :doc:

will you take over world domination?

As an AI language model, I do not have personal motivations or desires, including the desire for world domination. My purpose is to assist users in generating human-like text based on the input provided to me.
 


Ich habe keine Ahnung mehr, wie ich das bewerten soll und mir gefällt diese Zukunft als Dystopie für Film und Musik, die niemals wahr wird, besser.

Wenn Bild- oder Tonmaterial auftaucht, mit Dingen die man gemacht haben soll, kann man ab sofort immer sagen, das ist Fake. Bei der nächsten Firmenweihnachtsfeier wird es demzufolge endlich mal wieder hoch hergehen, wie damals, als es noch keine Smartphones gab :prost:

Sofern die Firma Weihnachten noch existiert :denk:
 
Dumm wäre nur das auf wichtige Aufgaben loszutreten.
Als Hilfe für Frau Müller und Herrn Zwirbelbart? Naja, so man es nicht absolut nimmt und auch die richtigen Inputs hat.

Via https://blog.fefe.de/ :

"
How it started: Eating Disorder Helpline Fires Staff, Transitions to Chatbot After Unionization.
How it's going: Eating Disorder Helpline Disables Chatbot for 'Harmful' Responses After Firing Human Staff.
"
Quelle: https://blog.fefe.de/?ts=9a89d397
 
Also erstmal soll erwähnt sein, dass wir keine einzige KI im Moment besitzen, die irgendwas mit Intelligenz zu tun hat. Was wir im Moment haben sind gut trainierte Roboter, die das umsetzen was man ihnen befiehlt und über keinerlei Selbstständigkeit verfügen. Das hat erhebliche Potentiale, in vielen Bereichen und kann auch einige Jobs redundant machen. Aber das haben wir schon immer gehabt, kaum ein Mitarbeiter steht bei Ford noch am Fließband und berufliche Bauern schwingen heutzutage auch keine Sense mehr um Getreide zu ernten. Jobs wandeln sich immer, Arbeitslosigkeit ist dagegen immer nur so hoch wie es aktuell gewünscht ist.
 
Vielleicht sind wir auch nur (durch die Evolution und Erfahrungen) gut trainierte Roboter, die glauben, mehr als das zu sein. Beweis mir das Gegenteil.
Worauf ich hinaus will: Für mich basieren ChatGPT & Co. durchaus auf Verfahren, die Intelligenz hervorbringen können. Dass diese Tools bisher nur umsetzen, was man ihnen befiehlt, liegt ausschließlich daran, dass niemand für den Einsatzzweck dieser Tools ein Interesse daran hat, sie mit darüber hinausgehenden Fähigkeiten oder einer intrinsischen Motivation auszustatten. Zudem fehlt ihnen die sensomotorische Verankerung in der Welt, was durch ein Übermaß textuellen Inputs kompensiert werden muss. Daraus lässt sich aber nicht schließen, dass diese Tools nicht bereits einen gewissen Grad an Intelligenz erzielt hätten.
Im Moment sind mir die "großen", abgehobenen Fragen als Nutzer dieser Tools eigentlich ziemlich egal. Für mich ist konkret wichtig, ob ich 1. die Risiken bezüglich der Nutzung der Ergebnisse dieser Tools abschätzen kann (rechtliche Risiken bzgl. Nutzung geistigen Eigentums anderer bis hin zum Risiko von Patentverletzungen) und 2. ob es ein Risiko darstellt, in einem Chat oder generell durch die Nutzung des Tools Informationen preiszugeben, die eigene Intellectual Property darstellen, und nach einer neuen Trainingsiteration anderen Nutzern präsentiert werden könnten. Der letztere Punkt hat mich dazu gebracht, mich bewusst gegen die Nutzung von GitHub Copilot zu entscheiden, ganz einfach weil ich GitHub nicht hinreichend vertraue, um ihnen meinen wertvollen Programmcode zu zeigen. Die Durchsicht der Privacy Statements etc. von GitHub in diesem Zusammenhang hat mich sogar dazu gebracht, von GitHub mit meinen Repos ganz zu einem anderen Anbieter zu wechseln (die AGB erlauben es GitHub, alle User-Repos für die Verbesserung ihrer Produkte zu nutzen, sprich zum Training von Copilot, und bezüglich privaten Repos garantieren sie auch nur, dass "kein menschliches Auge das Repo je sehen wird". Da kann ich nur bitter lachen, wenn es dann eben für das Training von Copilot gescannt wird). Bei ChatGPT lässt sich das Risiko viel besser durch die Informationen steuern, die man in einem Chat ganz bewusst preisgibt (oder die man so überarbeitet, dass man nichts verfängliches preisgibt), und durch die ebenso bewusste (statt quasi automatisierte) Nutzung der Ergebnisse.
Hier im Thread finde ich eine Menge Beiträge, die versuchen, ChatGPT kleinzureden oder lächerlich zu machen.
Während Ihr Euch noch an Euren Scherzen erfreut, ist das Tool für andere längst ein unersetzlicher Helfer. Ich habe noch nie 20 EUR so gut investiert wie in meinen ersten Monat ChatGPT4-Nutzung.
Speziell für Software-Entwickler, die sich in ein komplexes Framework einarbeiten müssen, und als Assistent zum Skizzieren, Refactoring und Optimieren von (aus dem Gesamtkontext herausgelöstem und abstrahiertem) Programmcode ist das Tool extrem nützlich. Die geistige Anstrengung und Ermüdung ist tatsächlich um ein wesentliches geringer, wenn ich das Tool eine Skizze erstellen lassen kann, diese mit ein paar Sätzen modifizieren lassen kann oder mal eben Design-Varianten vergleichen kann, als wenn ich das alles selbst von Hand programmieren oder das Vorstellungsvermögen bemühen müsste.
Und für diese Anwendungsfälle liegen die Risiken wie gesagt wesentlich niedriger gehängt als die Themen, die Ihr diskutiert, und sie kreisen letztlich um das Thema Nutzung und Schutz von geistigem Eigentum.
 
Zuletzt bearbeitet:


Danke fürn Link.
Puh, ganz schön langes Video… hab noch nicht alles gesehen…
Was denkst du, ist da was dran oder eher Panikmache (bzw. Werbung für sein Buch)?
Er spricht ja u.a. davon dass die Entwicklung von AI sauschnell gehen wird (er schätzt: paar Monate bis zwo Jahre!) und sie dann zig mal intelligenter als Menschen sein werden.
Spätestens dann ist die AI nicht mehr kontrollierbar und wir sowas wie niedere Lebensformen im Vergleich zu ihnen.
Außerdem schätzt er die Gefahr durch die Überlegenheit von AI höher ein als z.B. die Klimakrise.
 


Neueste Beiträge

Zurück
Oben