OpenAI bringt neue KI-Modelle auf den Markt, die mehr Zeit mit „nachdenken“ brauchen und nach eigenen Angaben logisch denken können
OpenAI hat neue KI-Modelle auf den Markt gebracht. Diese sollen nun logisch denken können, so das Unternehmen.
- OpenAI stellt neues KI-Modell o1 vor, das komplexere Aufgaben als bisherige Chatbots lösen können soll.
- Laut einem Blogeintrag von OpenAI und der „Financial Times“ sind die Modelle ab Donnerstag in ChatGPT Plus integriert.
- Das o1-Modell löste 83 Prozent der Aufgaben der internationalen Mathematik-Olympiade, während das aktuelle ChatGPT-4o nur 13 Prozent erreichte.
Der ChatGPT-Entwickler OpenAI hat ein neues KI-Modell vorgestellt, das komplexere Aufgaben als bisherige Chatbots lösen können soll. Die Software mit dem Namen o1 verbringe dafür mehr Zeit mit „Nachdenken“, bevor sie eine Antwort gibt – „so wie eine Person es machen würde“. Die Künstliche Intelligenz probiere dabei verschiedene Ansätze aus und erkenne und korrigiere ihre eigenen Fehler, erläutert OpenAI in einem Blogeintrag.
Nach Angaben von OpenAI werden die Modelle ab Donnerstag in ChatGPT Plus integriert sein, wie die „Financial Times“ berichtet. Dabei seien diese Modelle vor allem für Wissenschaftler und Entwickler interessant.
KI-Modell löste Großteil der Aufgaben einer Mathematik-Olympiade
So habe das o1-Modell 83 Prozent der Aufgaben der Prüfung für die internationale Mathematik-Olympiade gelöst. Das aktuelle ChatGPT-4o sei lediglich auf 13 Prozent gekommen. Zugleich fehlten bei dem neuen Modell noch viele nützliche Funktionen von ChatGPT. So könne es nicht im Web nach Informationen suchen und unterstütze nicht das Hochladen von Dateien und Bildern.
Aus Sicht von OpenAI kann das neue Modell etwa Forschern bei der Datenanalyse oder Physikern bei komplexen mathematischen Formeln helfen.
Die neuen Modelle sollen eine Technik namens „Reinforcement Learning“, verwenden, um Probleme anzugehen. Sie benötigen damit mehr Zeit, um Anfragen zu analysieren, was sie kostspieliger mache.
„Während dieser Zeit werden verschiedene Strategien zur Beantwortung der Anfrage erprobt“, so Mark Chen, der leitende Forscher des Projekts gegenüber der Financial Times. „Wenn es merkt, dass es Fehler gemacht hat, kann es diese korrigieren.“
Mira Murati, Chief Technology Officer des Unternehmens, sagte, dass die Modelle auch neue Wege zum Verständnis der Funktionsweise von KI eröffneten. „Wir erhalten Einblick in das Denken des Modells … wir können seinen Denkprozess Schritt für Schritt beobachten“, sagte sie der Financial Times.
Neue Software erfindet Antworten
Aus den Unterlagen geht allerdings zugleich hervor, dass das neue Modell bei einer Testauswahl von 100.000 Anfragen in 0,38 Prozent der Fälle wissentlich eine falsche Antwort gab. Das sei vor allem passiert, wenn OpenAI o1 darum gebeten worden sei, auf Artikel, Websites oder Bücher zu verweisen. Das war aber ohne Zugang zur Internet-Suche in vielen Fällen nicht möglich. Die sogenannten „Halluzinationen“, bei denen KI-Software Informationen einfach erfindet, sind generell ein bisher ungelöstes Problem.
HER // dpa