Es ist später, als man denkt
Die Eule hat mir eine Kolumne von Sascha Lobo aus "Spiegel Online" zugesandt.
Neue Entwicklung von OpenAI Wird die KI schon 2025 schlauer als der Mensch?
Eine Kolumne von Sascha Lobo
OpenAI hat eine künstliche Intelligenz entwickelt, die Abstraktionsvermögen mitbringen soll. Das könnte einen Durchbruch bedeuten und die Welt verändern – im Guten wie im Schlechten.
26.12.2024, 13.36 Uhr
2025 wird das Jahr, in dem künstliche Intelligenz die Grenzen unserer Vorstellungskraft sprengt. Und zwar auf eine Weise, die sich die meisten Menschen bisher, haha, nicht vorstellen können. Der Grund dafür ist wenige Tage alt und heißt o3
. So nennt OpenAI die neueste Version seiner KI. Wenn man von den notorisch Zweifelnden
und prinzipiell Mäkelnden absieht, hat die Fachwelt darauf zum größten Teil mit Erstaunen, sogar mit Ehrfurcht reagiert. Irgendetwas ist anders mit o3 als mit der bisherigen KI, und ich glaube, es ist für das Gegenwartsverständnis essenziell, diesen Unterschied zu begreifen.
Spätestens seit der Vorstellung von ChatGPT vor zwei Jahren elektrisiert KI-Fachleute wie auch interessierte Laien eine Abkürzung oder besser das, was dahintersteht: AGI. Artificial General Intelligence oder auf Deutsch künstliche Superintelligenz . Vereinfacht gesagt verbirgt sich dahinter eine KI, die so flexibel, so kreativ und so umfassend auf alle möglichen Anforderungen und Aufgaben reagieren kann wie ein Mensch. ChatGPT kann alle möglichen Wissensfragen meist besser beantworten als normale Menschen, ist aber sowohl mit komplexen mathematischen Problemen als auch mit scheinbar oder tatsächlich ganz simplen Fragen oder Aufgaben überfordert. Lange war zum Beispiel die Frage, wie viele »r« im Wort »strawberry« vorkommen, ein beliebter Test.
ChatGPT antwortete bis vor einiger Zeit meist falsch, weil generative KI mit der Wahrscheinlichkeit von Worthäufigkeiten arbeitet. Das ergibt in vielen Fällen sinnvolle Antworten, simples Zählen gehört jedoch nicht dazu. Aber kann ein Computer nicht eigentlich ganz hervorragend zählen? Stimmt – nur die KI hat bisher nicht verstanden, wann sie welches Instrument am sinnvollsten verwenden sollte. Denn dafür braucht eine KI ein gewisses Maß an genereller Intelligenz, in diesem Fall etwa Abstraktionsvermögen. Sie müsste gewissermaßen verstehen, dass eine spezielle Aufgabe lieber nicht mithilfe von Wahrscheinlichkeitsabschätzungen, sondern mit einer einfachen Zählung bearbeitet werden sollte. So wie ein Mensch mit Hammer in der Regel recht genau checkt, für welche Aufgabe der Hammer geeignet ist und für welche eher nicht.
Verständnis von Objekten und deren Eigenschaften
Die im September vorgestellte OpenAI-KI namens o1 trug interessanterweise den internen Codenamen Strawberry. Es soll CEO Sam Altman persönlich gefuchst haben, wie leicht ChatGPT vorführbar war. Plötzlich funktionierte der Strawberry-Test nicht mehr, aber das bedeutet für sich genommen wenig, ganze Teams bei OpenAI arbeiten hauptsächlich daran, bekannte Fehler und Probleme aller Art auszumerzen. Der Strawberry-Fortschritt bei o1 hätte also nicht zwingend mit einer Entwicklung in Richtung AGI zu tun haben müssen. Jetzt aber ist der direkte Nachfolger o3 da, der nicht so heißt, weil OpenAI wie ChatGPT Probleme mit dem Zählen hat, sondern laut Altman »aus Respekt vor unseren Freunden bei Telefónica« (und deren Marke O2).
Um die Qualität von künstlichen Intelligenzen überhaupt sinnvoll bewerten zu können, gibt es inzwischen eine Vielzahl von Tests und Benchmarking-Instrumenten. Benchmarking, auf Deutsch irgendwo zwischen Leistungsvergleich und Vermessungswesen, dient seit jeher der Vergleichbarkeit von technischen Prozessen. Für künstliche Intelligenz bestehen diese Tests meist aus bestimmten mathematischen Aufgaben und verschiedenen Sets komplexer Fachfragen.
Es gibt unterdessen auch speziell auf AGI zugeschnittene Tests, der bekannteste darunter wurde von einem ehemaligen Google-Ingenieur namens François Chollet entwickelt: ARC-AGI, kurz für Abstraction and Reasoning Corpus for Artificial General Intelligence. Abstraktion und Argumentationsfähigkeit sind zwei der wesentlichsten Kennzeichen von Intelligenz, von menschlicher ebenso wie von künstlicher. Der Test arbeitet mit bestimmten Formen der Wahrnehmung und des Wissens, die Menschen recht selbstverständlich und kulturunabhängig mitbringen, zum Beispiel die Fähigkeit zu zählen, ein Verständnis von Objekten und deren Eigenschaften und Verhaltensweisen, von Raum und Oberflächen sowie die Zielorientierung. Darauf baut der Test die Überprüfung einer entscheidenden Intelligenzform auf: Wie geht man mit Herausforderungen um, die definitiv niemals zuvor gelernt worden sein können?
Dieses Kriterium, das Neue, das Ungelernte, ist deshalb so zentral auf dem Weg zu AGI, weil künstlicher Intelligenz bisher unterstellt wird, sie würde nur auf strukturell bekanntem Terrain funktionieren, also bekannte Daten auswerten, reproduzieren und rekombinieren. In den generativen KI, die Videoclips aus hingeworfenen Prompts produzieren, ist gut erkennbar, was das bedeutet und wo deshalb die Schwächen der heutigen Modelle liegen. Da wächst plötzlich aus dem Arm einer Person ein Fahrrad, oder ein Hund verwandelt sich in einen ähnlich aussehenden Muffin – weil die KI nicht wirklich versteht, wie die Dinge in der Welt zusammenhängen. Keine menschliche Regisseurin würde grundlos einen Hund in einen Blaubeerkuchen übergehen lassen, weil das schlicht nicht möglich ist. Selbst wenn sich beide in bestimmten Situationen visuell ähneln mögen. Die bisherigen künstlichen Intelligenzen in Form der großen Sprachmodelle schneiden dementsprechend im ARC-AGI-Test ziemlich schlecht ab. Mit als bestes, derzeit für alle verfügbares Modell gilt OpenAIs o1-preview. Es schafft ein Testergebnis von rund 13 Prozent. Menschen landen im Schnitt bei 84 Prozent .
OpenAIs Ansatz gleicht einem Quantensprung
Der wesentliche Trick, den die neue KI anwendet, bezieht sich auf die Art, wie genau die Maschine aus Daten lernt. Die drei wichtigsten Lernansätze des Machine Learning sind:
Supervised Learning oder Überwachtes Lernen – dabei gibt man der Maschine einen Datensatz und eine aus Menschensicht korrekte Einordnung davon, und sie soll herausfinden, wie und warum die beiden zusammengehören. Beispiel: Das Foto eines Hundes und die Bezeichnung »Das ist ein Hund«. Irgendwann hat die Maschine mit so vielen Fotos gelernt, dass sie mit einiger Wahrscheinlichkeit Hunde auf neuen Bildern als solche erkennt.
Unsupervised Learning oder Unüberwachtes Lernen – dabei gibt man der Maschine einen Datensatz ohne korrekte Einordnung und gibt ihr die Aufgabe, Muster zu finden. Bisherige generative KI kombiniert meist Überwachtes und Unüberwachtes Lernen, zum Beispiel, um die Muster menschlicher Sprache zu erkennen und anschließend anzuwenden.
Der dritte Machine-Learning-Ansatz heißt Reinforcement Learning oder Verstärkendes Lernen. Dabei gibt man der Maschine keine Lösungsansätze vor, sondern arbeitet mit Belohnungen oder Bestrafungen für die Entwicklung von eigenen Lösungsansätzen. Dieses Lernmuster gehört zu den ältesten und ist der Natur nachempfunden. Allerdings beinhaltet Reinforcement Learning viele Schwächen – etwa, dass Maschinen leicht ins »Tricksen« geraten. Unter anderem deshalb wurde es in letzter Zeit seltener angewendet.
Mit o3 hat OpenAI das alte Reinforcement Learning neu entdeckt und neu angewendet, in Verbindung mit der Erhöhung der sogenannten Inferenz, was man als Nachdenkzeit oder Ergebnisüberprüfungsrunden der Maschine verstehen kann. Natürlich ist das eine vereinfachte Darstellung, es kommt im Detail auf sehr viele neue Erkenntnisse an, etwa darauf, wie genau die Belohnungsprinzipien aufgesetzt werden. Aber ganz offensichtlich hat OpenAI einen Ansatz gefunden, der einem Quantensprung gleicht, auch weil vor Kurzem noch oft von einer stockenden Weiterentwicklung bei KI die Rede war. Denn während Menschen wie beschrieben den ARC-AGI-Test im Schnitt mit 84 Prozent absolvieren, erreicht o3 in der Spitze fast 88 Prozent . Und das bei einem in der Fachwelt allgemein anerkannten Test, um abzuprüfen, ob künstliche Intelligenz in der Lage ist, auch neue, datenseitig nicht erlernte Herausforderungen zu meistern. (Es gibt zwar Stimmen, die von »cheating« sprechen, weil o3 auch mit einem Teil der öffentlichen Daten aus dem ARC-AGI-Corpus trainiert wurde. Aber das kann man auch anders sehen, denn es geht um die Struktur der Aufgaben und ein entscheidender Teil der Daten ist nicht zugänglich).
Wie lässt sich Krebs heilen? Das ist auch »nur« eine Frage
Die konkrete Bedeutung dieses Durchbruchs wird im Verlauf des Jahres 2025 beobachtbar werden. Ist er groß? Oder ist er spektakulär groß? Einzelne OpenAI-Insider sprechen jetzt schon von »AGI«, aber da muss man den Stolz der Beteiligten wie auch die hervorragende PR-Fähigkeit des Unternehmens mit berücksichtigen. Das, worauf es ankommt, wird die Komplexität der maschinell lösbaren Probleme sein. Schon heute ist o3 besser als die allermeisten Menschen etwa bei der Programmierung von Software, selbst bei ausgesprochen komplexen Softwaresituationen. Natürlich gibt es auch dafür Benchmarks .
Ansonsten hört sich »Fragen beantworten« vielleicht erst mal schmal oder wenig besonders an. Viel größer und auch leichter verständlich wird das Potenzial von künstlicher Intelligenz aber, wenn man sich vergegenwärtigt, was für Fragen irgendwann beantwortet werden könnten – und mit welchen Folgen.
Wie lässt sich Krebs heilen? Wie bekommen wir einen Fusionsreaktor zum Laufen? Welche Materialkombination ergibt einen Supraleiter bei Zimmertemperatur? Wie putze ich meinem Dreijährigen die Zähne ohne Tobsuchtsanfall? Auch das sind »nur« Fragen – und doch haben die Antworten das Potenzial, den Planeten für immer zu verändern, im Guten wie im Schlechten übrigens. Es ist natürlich nicht gesagt, dass wir im kommenden Jahr eine AGI haben werden, die zu den entsprechenden Antworten fähig ist. Aber auch wenn auf dem Weg dorthin wahrscheinlich noch eine Myriade technischer und weltlicher Probleme auftauchen werden und AGI völlig eigene Weltprobleme mit sich bringen wird, haben wir aus meiner Sicht doch einen großen Schritt in diese Richtung gemacht.
Es geht Schlag auf Schlag - exponentielles Wachstum eben. Der Zeitpunkt der Entstehung von AGI, der Superintelligenz, die dem Menschen in allen Punkten überlegen ist, rückt näher. Die Chance, dieses zweifelhafte Ereignis noch mitzuerleben ist gar nicht so klein. Noch einschneidender wird es sein, wie schnell diese AGIs in wie vielen und in welchen Bereichen die Führung übernehmen und was das für Auswirkungen hat.
Vielleicht sind unserer Bemühungen um das richtige Leben in Konsumgesellschaft und Klimawandel völlig belanglos in Anbetracht der Möglichkeit, dass unser künftiges Leben, wenn es denn überhaupt noch als sinnvoll erachtet wird, komplett von einer AGI bestimmt wird. Wir erleben gerade eine evolutionäre Zeitenwende mit. So ist es den Neandertalern ergangen, die längst ausgestorben sind. Allerdings tragen wir ca. 2 Prozent ihrer DNA in unserer. Ob unser Anteil an der neuen nicht organischen Spezies auch so hoch sein wird?