Aber das ist doch genau das klassische Maschine Learning. Die Regeln sind klar abgesteckt (und die Glitches sind ja auch Teil der Regeln) und randomisiert wird eine neue Strategie versucht und bei Erfolg wiederholt.
Echte KI wäre es eher wenn sich eine der Gruppen dem Spiel widersetzen würde, oder aus Frust der ständigen Wiederholungen sich in den Abgrund stürzt und damit das Spiel boykottiert.
ich finde auch, dass das was wir hier sehen zunächst einmal die allereinfachste grundstruktur ist, die man sich vorstellen kann, nämlich im prinzip zufall und dann merkt "er" sich halt, was furnktioniert hat.
aber letztlich ist das teil des gesamtalgorithmus, und weil das zeug ja auf openAI basiert - auf welcher library auch immer - können wir davon ausgehen, dass da irgendwo im hintergrund auf höheren eben noch was mitläuft.
so könnte es zum beispiel sein, dass das system sich jetzt auch für die zukunft behalten wird, dass es mit durchschittlich 130 milionen versuchen die aufgabe erledigt bekommt. oder dass die lösung der aufgabe am schnellsten erfolgt, wenn man in interaktion mit aufgefundenen objekten tritt.
das weiß ein solches system spätestens, wenn sich bei der zweiten aufgabe dieses muster wiederholt und wird dann bei der dritten aufgabe schon seine strategie anpassen und bei seinen random walks erst mal alle objekte beschnuppern.
dieses wissen kann es dann bei allen aufgabenstellungen immer wieder rauskramen und ausprobieren, ob das dort anwendbar ist. dann wird das zufallsprinzip schon zu forensik: mit den jahren weiß man, dass die mehrheit aller mörder männlich ist, und investiert dem entsprechend die mehrheit seiner ressourcen dann in die suche nach einem mann.
man kann zwar immer argumentieren, dass das letztlich alles vom menschen vorgegebene simple algorithmen sind, aber dennoch wirkt ja selbst dieses einfache "learning" demo hier auf den durchscnittsmenschen relativ beeindruckend, ergo quasi intelligent.
mal ehrlich: es gibt
menschen, die hätten bei der aufgabe versagt.