nox70
Nur noch (1) verfügbar.
Momentan... könnte man evtl. mit "noch" tauschen.
Was ist wenn Skynet und seine Robots längst die asozialen Medien infiltriert haben (werden)?
Die wiegen dich damit in Sicherheit...
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: This feature may not be available in some browsers.
Momentan... könnte man evtl. mit "noch" tauschen.
Was ist wenn Skynet und seine Robots längst die asozialen Medien infiltriert haben (werden)?
Die wiegen dich damit in Sicherheit...
Wenn jetzt noch einer 'rausfindet, daß KI, Waffen, Umweltgifte, teilweise auch das Wetter und Behringersynthies von Menschen erschaffem werden,Die KI kann niemals eine größere Gefahr für die Menschen sein, als der Mensch selbst.
Brüder führen gegen Brüder Krieg, weil es wenige Eliten so wollen, was sollte dann noch schlimmer sein?
wenn sie jetzt noch Robotern beibringen, einen Kugelschreiber zu halten ...
wenn sie jetzt noch Robotern beibringen, einen Kugelschreiber zu halten ...
Die besten Schreibroboter 2023 [Vergleich]
Sie haben Post – Dank Schreibroboter von digitalen Marketingkanälen zu physischem Marketing. Doch wie geht das, was sind die Vorteile und wann ist das überhaupt sinnvoll? Die wachsenden Anforderungen der Kunden auf allen Ebenen und Kanälen sowie die zunehmende Konkurrenz können junge Unternehmer...bernardzitzer.com
EU will künstliche Intelligenz regulieren
Was dieser Verein nicht alles regulieren will. Die EU steht für den Rückschritt.
Kannst du das begründen? Was KI angeht, müssen Regeln her!
Es bringt nur nix, wenn wir die Regeln niemandem mehr aufzwingen können, weil uns der Rest der Welt rechts überholt hat. Das typische „Die Physiker“-Problem.
Zur digitalen Selbstaufgabe gehe bitte nach China.
Das ist eventuell aber gar nicht der springende Punkt. Um es mal zu verdeutlichen: vor Jahrtausenden konnte ein Mensch mit Hang zur Destruktivität jemandem mit seinem Stock totprügeln. Bei einer größeren Gruppe wurde das schon schwieriger, denn da brauchte er mindestens die gleiche Macht auf seiner Seite, damit er seine Ziele erreichen konnte. Jahrtausende später kann er per Knopfdruck automatisiert Tausende von Menschen umbringen. Die KI (wenn sie denn dann erstmal man da ist, und nicht nur spezielle Aufgaben übernimmt, das wird ja der konsequente nächste Schritt sein, multiple KIs zu vernetzen) wird das noch wesentlich effektiver können. Das Zerstörungspotential wird einfach immer größer. (Den Schritt mit dem Internet, Automatisierung und Anonymität dazwischen lasse ich mal bewusst außen vor.)Ich denke nicht, dass eine Gefahr von KIs ausgeht, sondern von Menschen, die KIs zu ihrem eigenen Vorteil missbrauchen. ...
weil uns der Rest der Welt rechts überholt hat.
Wer ist denn "der Rest der Welt"? Meinst Du die USA? Das Fehlen von Regulierung wird dort zum Teil auch als Problem gesehen, weil dadurch keine Spielregeln herrschen. Einfach mal abwarten.Es bringt nur nix, wenn wir die Regeln niemandem mehr aufzwingen können, weil uns der Rest der Welt rechts überholt hat. Das typische „Die Physiker“-Problem.
...die die KI diktiertmit echter KI wird man Verträge schließen...
Das ist bereits Realität.das Internet als bedeutungsloser, mit Werbemüll zugepflasterter Raum
Das bedeutet ja nicht, dass es nicht noch schlimmer werden kann, wenn man KI-generierte von echten Menschen nicht mehr unterscheiden kann und der Aufwand dafür immer kleiner wird. Denn das bedeutet NICHT NUR, dass die Influencer von heute auf morgen plötzlich "irgendetwas" anderes machen können. Natürlich wird das eine Frage des Kosten/Nutzen-Quotienten sein, aber die Kosten werde ja immer kleiner bei solchen technischen Spielereien.Das ist bereits Realität.
Bestimmt. Aber natürlich ohne Erfolgsgarantie.Gibt es schon KI-Hochzeitsagenturen?
Es könnte aber genauso gut sein, dass das mit dem Lügen erkennen der nächste Schritt ist, um Menschen ähnlicher zu werden. Oder anders gesagt: wenn die KI erkennen sollte, wie oft Menschen das tun, WARUM sollte eine echte KI es eigentlich NICHT tun? Nur weil ihr jemand als Direktive mitgegeben hat "Das darfst du nicht."? Gab es da nicht mal so ein Buch mit 10 Geboten? Gibt das eigentlich auch im Business? Und vielleicht ist für die KI ja auch ALLES Business, weil es Prozessorzyklen kostet?Es ist ein großer Schritt - aber ich bin gespannt ab wann diese Modelle auch erkennen, dass sie teilweise lügen und deshalb sollte man ihnen "nicht trauen" sondern sie als eine Art Einstieg verwenden oder sowas.
KI ist Business. Und im Geschäft, gerade mit echten Menschen, ist nicht immer alles erlaubt. Es gab mal vor Jahren von Microsoft einen Bot, den sie wieder recht schnell abschalten mussten: https://de.wikipedia.org/wiki/Tay_(Bot)Es könnte aber genauso gut sein, dass das mit dem Lügen erkennen der nächste Schritt ist, um Menschen ähnlicher zu werden. Oder anders gesagt: wenn die KI erkennen sollte, wie oft Menschen das tun, WARUM sollte eine echte KI es eigentlich NICHT tun? Nur weil ihr jemand als Direktive mitgegeben hat "Das darfst du nicht."? Gab es da nicht mal so ein Buch mit 10 Geboten? Gibt das eigentlich auch im Business? Und vielleicht ist für die KI ja auch ALLES Business, weil es Prozessorzyklen kostet?
Ich meine, es gibt ja die Anfänge von sich selbst reparierender Software. Selbstreparierende KI ist doch eigentlich auch nicht so abwegig? Irgendwann MÜSSEN aus Kostengründen (das ist ja immer der Faktor Nummer 1) die Menschen an den entsprechenden Stelle wegrationalisiert werden. Und warum sollte die KI sich dann unbedingt in UNSEREM Sinne selbst verändern und reparieren? Falsche Parameter gab es doch schon öfter mal, in wesentlich einfacheren Aufgabenstellungen (Gesichterkennung und farbige Menschen etc.).
Ich bin der Meinung, dass so eine KI niemals lügen sollte oder angeben sollte - das was ich jetzt sage ist zu X% denkbar - oder mit einem Fehlerquotienten, damit die die das zu absolut und "als Maschine" sehen nicht auf dumme Gedanken kommen - da könnte so ein Cookie-Consent Bullshit "rauskommen" - ist schon klar -Es könnte aber genauso gut sein, dass das mit dem Lügen erkennen der nächste Schritt ist, um Menschen ähnlicher zu werden. Oder anders gesagt: wenn die KI erkennen sollte, wie oft Menschen das tun, WARUM sollte eine echte KI es eigentlich NICHT tun? Nur weil ihr jemand als Direktive mitgegeben hat "Das darfst du nicht."? Gab es da nicht mal so ein Buch mit 10 Geboten? Gibt das eigentlich auch im Business? Und vielleicht ist für die KI ja auch ALLES Business, weil es Prozessorzyklen kostet?
Ich meine, es gibt ja die Anfänge von sich selbst reparierender Software. Selbstreparierende KI ist doch eigentlich auch nicht so abwegig? Irgendwann MÜSSEN aus Kostengründen (das ist ja immer der Faktor Nummer 1) die Menschen an den entsprechenden Stelle wegrationalisiert werden. Und warum sollte die KI sich dann unbedingt in UNSEREM Sinne selbst verändern und reparieren? Falsche Parameter gab es doch schon öfter mal, in wesentlich einfacheren Aufgabenstellungen (Gesichterkennung und farbige Menschen etc.).
Sehr schön, das Internet als bedeutungsloser, mit Werbemüll zugepflasterter Raum für virtuelle Influencer ... und sagt mir bitte nicht, dass dieses Prinzip nicht die Werbebranche (und nicht nur die) durcheinanderwirbeln wird.
AI-created “virtual influencers” are stealing business from humans
Brands are turning to hyper-realistic, AI-generated influencers for promotions.arstechnica.com