Starke Spannungen

Nach Eklat um Sam Altman: Sind bei OpenAI KI-Profite mit ethischen Grundsätzen vereinbar?

09.12.23 23:47 Uhr

Nach Eklat um Sam Altman: Sind bei OpenAI KI-Profite mit ethischen Grundsätzen vereinbar? | finanzen.net

Das Führungschaos beim ChatGPT-Entwickler OpenAI scheint sich vorerst wieder gelegt zu haben, doch viele Punkte sind nach wie vor ungeklärt. Vor allem muss sich das Startup nun mit der Frage befassen, ob seine ethische Mission wirklich mit der Unternehmensstruktur vereinbar ist.

• Mission von OpenAI stellt Interessen der gesamten Menschheit in den Mittelpunkt
• CEO Sam Altman wohl eher gewinnorientiert
• Unternehmensstruktur führt zwangsweise zu Spannungen



Das KI-Startup OpenAI hat eine turbulente Zeit hinter sich, nachdem Chef und Mitgründer Sam Altman erst überraschend vom Verwaltungsrat herausgedrängt und dann wenige Tage später wieder zurückgeholt wurde. Statt Altman sind nun die meisten Mitglieder des damaligen Verwaltungsrates nicht mehr bei OpenAI. Noch immer ist jedoch nicht bekannt, was genau den Verwaltungsrat zu der Entscheidung bewogen hatte, den OpenAI-Chef zu feuern. In einem Blogeintrag des Startups hieß es, Altman sei "in seiner Kommunikation mit dem Vorstand nicht durchgängig offen [gewesen], was dessen Fähigkeit, seine Verantwortung wahrzunehmen, beeinträchtigte". Man habe daher das Vertrauen in Altmans Fähigkeiten verloren, OpenAI weiter zu leiten. Wo nicht offen genug kommuniziert wurde, ist unklar. Allerdings soll es laut "The Information" noch eine formale Untersuchung der Dinge geben, die zu Altmans Rauswurf geführt haben.

Wie Ann Skeet, leitende Direktorin für Führungsethik am Markkula Center for Applied Ethics, in einem Gastbeitrag für "Fortune" schreibt, habe es im Verwaltungsrat von OpenAI, dem vor dem Führungschaos auch Sam Altman angehörte, schon im gesamten vergangenen Jahr Spannungen gegeben. Diese könnten womöglich daraus entstanden sein, dass Sam Altman als CEO von OpenAI die Interessen des Startups an erste Stelle gesetzt hat, während der Verwaltungsrat der ethischen Mission des Unternehmens verpflichtet ist. Dieser Kontrast könnte letztlich zu dem Bruch geführt haben.

Die Mission von OpenAI: KI zum Wohl der Menschheit

OpenAI bezeichnet sich auf der Unternehmenswebseite selbst als ein "KI-Forschungs- und Bereitstellungsunternehmen", dessen "Mission" es sei "sicherzustellen, dass künstliche allgemeine Intelligenz der gesamten Menschheit zugutekommt". Der Begriff künstliche allgemeine Intelligenz - im Englischen Artificial General Intelligence (AGI) - bezeichnet dabei laut OpenAI "KI-Systeme, die im Allgemeinen intelligenter sind als Menschen". Außerdem gibt das Startup an "sichere und nützliche AGI" aufbauen zu wollen. Zusammen mit der ausformulierten Mission suggeriert dies, dass bei dem Startup Ethik über Profit gestellt wird. Doch die Struktur des Unternehmens ist eher komplex und nicht vollkommen frei von Gewinnorientierung.

Laut Unternehmensangaben wurde OpenAI im Jahr 2015 als gemeinnützige Organisation gegründet. Im Jahr 2019 folgte jedoch eine Umstrukturierung, um sicherzustellen, dass das Unternehmen zur Erfüllung seiner Mission auch das benötigte Kapital beschaffen kann. Gleichzeitig sollten aber Mission, Leitung und Aufsicht der gemeinnützigen Organisation erhalten bleiben. Dies führte zur Gründung von OpenAI LP, einer "Mischung aus einem gewinnorientierten und einem gemeinnützigen Unternehmen, das wir ein 'Capped-Profit'-Unternehmen nennen", so das Startup. Dem zur Seite steht jedoch weiterhin die ursprüngliche Organisation als "OpenAI Nonprofit". Durch die Kombination aus einem gewinnorientierten und einem gemeinnützigen Unternehmen können Geldgeber auf ihr Investment in OpenAI LP eine bestimmte Maximalrendite erhalten, alle Erträge darüber hinaus gehen jedoch an die OpenAI Nonprofit-Organisation. Das Capped-Profit-Unternehmen wird dabei vom Verwaltungsrat überwacht, der gemeinnützig denken und handeln sowie dafür sorgen soll, dass sich OpenAI an seine Mission hält und seine Charta wahrt. Daher sei auch die "Mehrheit des Vorstands [...] unabhängig und die unabhängigen Direktoren [...] nicht an OpenAI beteiligt", wie es auf der Webseite von OpenAI heißt.

Widersprüche zwischen teilweiser Gewinnausrichtung und Gemeinnützigkeit

Laut dem Gastbeitrag von Ann Skeet bei "Fortune" wurde der Verwaltungsrat von OpenAI bewusst mit dem Ziel und der Macht ausgestattet, Gewinninteressen aus der Gleichung auszuschließen. Zudem sollte er laut "The Algorithmic Bridge" auch dafür sorgen, dass KI-Sicherheit und KI-Ausrichtung weiterhin die höchste Priorität in der Wertehierarchie des Unternehmens haben - und habe sogar versprochen, OpenAI zu zerstören, falls das aus Sicherheitsgründen nötig werden sollte. Während der Verwaltungsrat von OpenAI also das Ziel hat, die Menschheit über den Profit zu stellen, wird OpenAI gleichzeitig von Sam Altman geleitet, der laut "Data Ethics" "äußerst gewinnorientiert" sei.

Es ist offensichtlich, dass beide Aspekte nur schwer unter einen Hut zu bringen sind und es somit fast schon zwangsläufig zu Spannungen kommen muss - und offenbar war dies auch vor dem kürzlichen Eklat der Fall. "Quellen sagen mir, dass die Gewinnausrichtung des Unternehmens unter Altman und die Geschwindigkeit der Entwicklung, die als zu riskant angesehen werden konnte, und die gemeinnützige Seite, die sich für mehr Sicherheit und Vorsicht einsetzte, im Widerspruch standen", schrieb Tech-Reporterin Kara Swisher mit Bezug auf die Entlassung von Altman auf dem Kurznachrichtendienst X, ehemals Twitter. Die Meinungen würden laut Swisher jedoch auseinandergehen, ob es sich bei dem Rauswurf von Altman um einen Putsch gehandelt habe, oder ob es der richtige Schritt gewesen sei.

Profit vs. Ethik: Was geht aus dem Chaos als Sieger hervor?

Generell dürfte es wohl auch weiterhin Uneinigkeiten in Bezug darauf geben, ob Profite oder Ethik bei OpenAI den höheren Stellenwert haben oder haben sollten. Denn wie ein Beitrag bei "Quora" herausstellt, ernten auch Punkte, die die Priorisierung der Ethik belegen sollen, immer wieder Kritik. So habe OpenAI laut dem "Quora"-Beitrag mehrere Richtlinien und Grundsätze für die ethische Entwicklung von KI veröffentlicht, die sich unter anderem mit Sicherheit, Fairness und Transparenz befassen würden. Diese seien für Kritiker jedoch zu vage und zu offen für verschiedene Interpretationen. Auch die Sicherheitsmaßnahmen des Unternehmens, die Missbrauch, Voreingenommenheit und Diskriminierung verhindern sollen, würden oft als nicht stark genug angesehen. Zudem stünden auch Partnerschaften in der Kritik, die OpenAI mit Organisationen wie Universitäten oder Forschungsinstituten aufgebaut habe, die sich für die Förderung einer ethischen KI-Entwicklung einsetzen. Diese seien nicht ausreichend, um sicherzustellen, dass die Technologien von OpenAI tatsächlich verantwortungsbewusst genutzt würden, so die Kritiker laut dem Beitrag auf "Quora".

Dass Altman mittlerweile zurück an der Spitze von OpenAI ist, während der Verwaltungsrat nahezu komplett neu aufgebaut wird, könnte nun darauf hindeuten, dass die profitorientierte Seite bei dem KI-Unternehmen wirklich die Oberhand gewonnen hat. Tatsächlich könnte auch schon die Entscheidung aus dem Jahr 2019, die eigene Technologie über OpenAI LP zu kommerzialisieren, ein Hinweis darauf sein, dass dem Startup womöglich mehr am Geldverdienen als an der ethischen KI-Entwicklung liegt. Allerdings kostet die KI-Entwicklung natürlich auch Geld - und zwar so viel, dass die benötigten Summen wohl nicht realistisch nur mit Spenden aufzubringen sind. Ob OpenAI daher in Zukunft unter Altman und dem neuen Verwaltungsrat seine gemeinnützige Seite komplett aufgibt oder weiterhin versucht, die schwierige Balance aus Profit und Ethik zu erreichen, wird sich wohl in den nächsten Wochen und Monaten zeigen.

Redaktion finanzen.net

Bildquellen: Den Rise / Shutterstock.com, PopTika / Shutterstock.com