OpenAIs Verlegenheit über die mathematischen Probleme, die Gpt-5 nicht wirklich gelöst hat

„ Gpt-5 hat gerade 10 (!) ungelöste Erd-Probleme gelöst und bei 11 weiteren Fortschritte gemacht .“
Mit dieser enthusiastischen Botschaft hatte Kevin Weil , Leiter der wissenschaftlichen Forschung bei OpenAI, am 17. Oktober vergangenen Jahres eine scheinbar außergewöhnliche Entdeckung angekündigt.
Weil, ein Absolvent der Physik und Mathematik in Harvard, hatte im sozialen Netzwerk X einen Beitrag von Mark Sellke , einem der Forscher bei OpenAI , erneut veröffentlicht. Demnach sei es dem neuesten und leistungsstärksten künstlichen Intelligenzmodell des Unternehmens, GPT-5, gelungen, zehn ungelöste mathematische Probleme des berühmten Paul Erdmann zu lösen, dem legendären Autor einiger der komplexesten Rätsel der modernen Mathematik.
Die Ankündigung wurde als wundersamer Fortschritt in der künstlichen Intelligenz gefeiert. Doch innerhalb weniger Stunden schlug die Aufregung in Verlegenheit um : Was wie eine beispiellose wissenschaftliche Errungenschaft ausgesehen hatte, entpuppte sich als kolossaler „ epischer Fehlschlag “, ein eklatanter Fehler sowohl in technologischer als auch in kommunikativer Hinsicht.
Derjenige, der die Begeisterung dämpfte, war Thomas Bloom , Mathematiker und Kurator der Website erdosproblems.com, die sich genau Erds Vermutungen widmet.
Als Reaktion auf Weils Ankündigung in den sozialen Medien warf Bloom OpenAI eine „eklatante Verzerrung“ der GPT-5-Ergebnisse vor. Das Modell habe keine Probleme gelöst, sondern lediglich Hinweise auf bereits veröffentlichte Lösungen in wissenschaftlichen Arbeiten identifiziert, die ihm selbst nicht bekannt gewesen seien, so der Experte. Die Fragen erschienen auf seiner Website als „offen“ – nicht etwa, weil sie tatsächlich ungelöst waren, sondern schlicht, weil es keine aktuellen Berichte über bestehende Lösungen gab.
In der Praxis hat GPT-5 kein neues mathematisches Wissen hervorgebracht : Es hat „nur“ erkannt und abgerufen, was bereits bekannt war, und hat sich dabei eher wie eine äußerst hochentwickelte Suchmaschine verhalten als wie ein Gehirn, das in der Lage ist, neue Theorien auszuarbeiten.
Nach Blooms Klarstellungen gingen auch innerhalb von OpenAI Zulassungen ein .
Sebastien Bubeck , einer der leitenden Forscher des Unternehmens, räumte ein, dass das Modell „nur Lösungen fand, die bereits vorhanden waren“. Dennoch versuchte er, aus der Arbeit der KI etwas zu retten: „Ich weiß, wie schwierig es ist, die wissenschaftliche Literatur zu durchsuchen.“
Andere OpenAI-Mitarbeiter, die die Ankündigung geteilt oder verstärkt hatten, löschten später ihre Beiträge und entschuldigten sich öffentlich. Weils ursprünglicher Beitrag selbst wurde gelöscht .
Eine scharfe Verurteilung des Vorfalls kam von Demis Hassabis , Nobelpreisträger und Leiter von Google DeepMind , der die ganze Angelegenheit als „peinlich“ bezeichnete.
In einer Zeit, in der die Erwartungen an generative Modelle himmelhoch sind und GPT-5 zunächst als weiterer Schritt in Richtung „allgemeiner Intelligenz“ präsentiert wurde, die viele als AGI bezeichnen, zeigt der Fehler von OpenAI, wie fragil die Grenze zwischen echter Innovation und Marketing sein kann.
GPT-5 zeigte zwar eine bemerkenswerte Fähigkeit, verborgene Informationen aufzuspüren, leistete jedoch keinen originellen Beitrag zum mathematischen Fortschritt.
Die Episode ist eine Warnung an OpenAI – und die gesamte Branche –, wie leicht Hype nach hinten losgehen kann. Wer den KI-Wettlauf der großen Technologieunternehmen miterlebt, wird aus dieser Geschichte lernen, dass man den Versprechen großer KI-Unternehmen stets mit Vorsicht und Umsicht begegnen muss.
La Repubblica