OpenAIs CEO hat kürzlich bestätigt, dass das AI-Labor derzeit keine Pläne hat, „GPT-5“ zu entwickeln. Doch für diejenigen, die sich um fortschrittliche KI sorgen, ist dies ein schwacher Trost.
Fortschritt in der künstlichen Intelligenz kann nicht allein anhand von Versionsnummern gemessen werden.
Auf einer MIT-Veranstaltung letzte Woche diskutierte Sam Altman einen offenen Brief, der OpenAI aufforderte, die Entwicklung von Systemen, die mächtiger sind als ihr Sprachmodell GPT-4, zu pausieren. Altman nannte den Brief „ohne technische Feinheiten“, und bemerkte: „Wir entwickeln kein GPT-5 und werden es auch eine Weile nicht tun.“
Allerdings fügte Altman hinzu: „Wir arbeiten an anderen Dingen auf Basis von GPT-4, die wichtige Sicherheitsfragen aufwerfen.“ Versionsnummern bedeuten wenig; die Erweiterung der Fähigkeiten ist das, was zählt. Das iPhone 35 mag eine höhere Nummer als 34 haben, aber das allein sagt nichts über seine Fähigkeiten oder Risiken aus. Bei KI müssen wir uns auf das konzentrieren, was Systeme tun können, nicht darauf, wie Unternehmen sie nennen.
Warum ist diese Unterscheidung wichtig? Weil während OpenAI bei „GPT-5“ pausiert, das Potenzial von GPT-4 auf Weisen weiter wächst, die wir nicht vollständig verstehen. Die Verbindung des Systems mit Internetdaten oder die Optimierung seiner Algorithmen könnte zu unvorhergesehenen Durchbrüchen oder Problemen führen, unabhängig von einer neuen Nummer.
Nummern suggerieren einen geordneten, linearen Fortschritt, den wir bei KI nicht erreicht haben. Sie implizieren, dass jede Version die vorherige auf ordentliche Weise überschreitet, als würde man Stufe für Stufe eine Treppe hinaufsteigen. Aber die Beherrschung von KI wird langsam, unordentlich und ziellos sein. Wir könnten Systeme entwickeln, die fortschrittlicher sind als GPT-4, nur um entscheidende Fehler zu finden und von vorne zu beginnen. Wir könnten jahrelang allmähliche Fortschritte machen, nur um von einem neu gestalteten System namens GPT-4.3 durch einen unerwarteten Sprung nach vorne überrascht zu werden.
Die Regulierung fortschrittlicher KI auf der Grundlage von Versionsnummern und Hype ist bedeutungslos. Bei schnell fliegenden Algorithmen kann eine „Pause“ wenig bewirken, wenn uns Methoden fehlen, um zu bewerten, was wir bereits haben, und prüfbare Sicherheitsstandards zu setzen. Die Herausforderungen der Regulierung von KI und der Bewältigung ihrer Unsicherheiten gehen weit über die Versionskontrolle hinaus.
OpenAIs Entscheidung, „GPT-5“ zu verschieben, bedeutet weniger, als es scheinen mag. Die Erweiterung der Fähigkeiten geht weiter, und andere Labore bauen Systeme, deren Auswirkungen wir nur erraten können. Wenn wir Risiken von KI mit mehr Geschick angehen wollen als nur um „Pausen“ zu bitten, müssen wir damit beginnen, zuzugeben, wie wenig Versionsnummern in einem Feld aussagen, das sich so schnell wie Denkmaschinen entwickelt. Der wirkliche Fortschritt, den wir brauchen, ist genug zu lernen, um Schritt zu halten.