Portrait
Sam Altman: Getriebener, Dealmaker, Prepper - aber kein fundierter KI-Experte

Der 39-jährige US-Amerikaner stellt Milliarden auf, um KI-Projekte in rasantem Tempo voranzutreiben. Dabei geben sich manche Beobachter jedoch zunehmend skeptisch, was seine Ziele angeht. Hat Altman die Risiken der Schlüsseltechnologie überhaupt noch im Blick?

Sam Altman, CEO von OpenAI, steht im Zentrum einer Debatte über die Gefahren und Möglichkeiten der Künstlichen Intelligenz (KI). Seit der Markteinführung des KI-Chatbots ChatGPT im November 2022 hat sich OpenAI zu einem führenden Akteure in der Technologiebranche entwickelt. Doch während die Fortschritte beeindruckend sind, warnen Experten vor den erheblichen Risiken, die mit der Technologie einhergehen.

Auch Altman selbst wird dabei immer häufiger kritisch betrachtet. Denn aus der einst gemeinnützigen Organisation OpenAI ist ein Riese mit Fokus auf Wachstum und Marktanteile geworden – geführt von einem Unternehmenschef, der zunehmend einen Tunnelblick zu entwickeln scheint.

OpenAI wurde 2015 als Antwort auf Googles Übernahme des führenden KI-Startups DeepMind gegründet. Larry Page, Mitbegründer von Google, hatte damit einen Großteil der weltweiten KI-Talente unter seine Kontrolle gebracht, was bei Konkurrenten wie Elon Musk und Sam Altman Besorgnis auslöste. Sie gründeten OpenAI als gemeinnützige Organisation, um sicherzustellen, dass KI-Technologie der gesamten Menschheit zugutekommt.

Der Name OpenAI symbolisierte seinerzeit Transparenz und Gemeinwohlorientierung. Ein unabhängiger Aufsichtsrat, bestehend aus Experten wie Helen Toner und Ilya Sutskever, sollte gewährleisten, dass die KI-Entwicklung sicher und ethisch vertretbar bleibt.

Der Aufstieg

Sam Altman, ursprünglich ein erfolgreicher Dealmaker im Silicon Valley und kein KI-Experte, begann seine Karriere als Mitbegründer und CEO von Loopt - ein standortbasiertes soziales Netzwerk, das 2008 für 43 Millionen Dollar an Green Dot Corporation verkauft wurde. Danach wurde er Präsident des bekannten Startup-Accelerators Y Combinator, wo er maßgeblich daran beteiligt war, zahlreiche spätere Größen wie Dropbox und Airbnb zu fördern. Diese Position verschaffte ihm tiefe Einblicke in die Welt der Gründungen und machte ihn zu einem einflussreichen Akteur im Silicon Valley.

Sein Talent für Networking und Deals zeigte sich schließlich, als er 2015 zusammen mit Elon Musk OpenAI gründete. Altman nutzte seine Verbindungen und seinen Ruf, um namhafte Wissenschaftler und erhebliche Investitionen anzuziehen. Nach einem internen Machtkampf und dem Abgang von Elon Musk übernahm Altman 2019 die Führung von OpenAI. Ein entscheidender Wendepunkt trat im selben Jahr ein, als Altman einen Deal mit Microsoft-CEO Satya Nadella abschloss.

Microsoft investierte eine Milliarde Dollar in OpenAI, was das Unternehmen finanziell absicherte und Altman zum unangefochtenen Leader machte. Das Redmonder Hard- und Softwareunternehmen erhielt im Gegenzug das Recht, die Rechenleistung für die KI-Entwicklung bei OpenAI zu kaufen. OpenAI verwandelte sich dadurch von einer Non-Profit-Organisation zu einem kommerziellen Unternehmen mit einem starken Fokus auf Wachstum und Marktanteile.

Warnende Stimmen aus dem Umfeld

Mit dem rasanten Fortschritt der KI-Technologie kamen auch erhebliche Sicherheitsbedenken auf. Experten wie Leopold Aschenbrenner und Helen Toner warnen im manager magazin vor den potenziellen Gefahren von übermächtigen KI-Systemen.

Aschenbrenner, ehemaliger Sicherheitsforscher bei OpenAI, sieht in der Technologie das Potenzial für übermenschliche Hacking-Fähigkeiten und autonome Waffensysteme, die die globale Sicherheit bedrohen könnten. Toner und andere Experten befürchten eine extremere Machtkonzentration und eine Destabilisierung der Gesellschaft durch manipulative KI-Modelle.

Manipulation und Desinformation

Die Gefahren, die von KI ausgehen, sind vielfältig. Ein Beispiel ist die mögliche Manipulation von Informationen. KI-gesteuerte Bots könnten in sozialen Medien Desinformationen verbreiten und die öffentliche Meinung manipulieren. Auch die Manipulation von Aktienkursen und Wahlergebnissen ist denkbar, da KI-Systeme in der Lage wären, hochpräzise und personalisierte Propaganda zu erstellen. Ein weiteres Risiko besteht in der autonomen Kriegsführung. KI-gesteuerte Drohnen und Roboter könnten ohne menschliches Eingreifen operieren und so die Schwelle zum Einsatz von Gewalt senken.

Hat Altman die Kontrolle verloren?

Altman selbst hat die Entwicklung von KI-Systemen als das "hoffnungsvollste“ und zugleich "furchteinflößendste“ Vorhaben aller Zeiten bezeichnet. Seine Entscheidungen und Handlungen werden jedoch zunehmend kritisch gesehen. Helen Toner und andere Aufsichtsratsmitglieder warfen ihm vor, die Sicherheitsstandards zu vernachlässigen und die Kontrolle über das Unternehmen verloren zu haben.

Der spektakuläre Rauswurf Altmans im November 2023 durch den Aufsichtsrat endete in einem Pyrrhussieg, da die Belegschaft und Investoren sich überwiegend hinter Altman stellten, wodurch er seine Position innerhalb weniger Tage zurückeroberte und seinen Einfluss weiter festigte.

Das Superalignment Team und weitere Sicherheitsbedenken

Das Superalignment Team, das sich mit existenziellen Sicherheitsfragen beschäftigte, wurde aufgelöst; viele hochrangige KI-Experten verließen OpenAI oder wurden entlassen. Sicherheitsverfahren wurden zunehmend vernachlässigt, und die Entwicklung glänzender Produkte rückte in den Vordergrund. Kritiker wie Daniel Kokotajlo und andere ehemalige Mitarbeiter warnten in einem offenen Brief vor den ernsten Risiken und forderten effektivere Kontrollmechanismen für die KI-Entwicklung.

Altman selbst bereitet sich offenbar auf mögliche negative Folgen vor. Seine Investments in Unternehmen wie Tools for Humanity und Worldcoin legen nahe, dass er auch aus dem absehbaren Informationschaos, das durch KI entstehen könnte, ein lukratives Geschäft machen will. Außerdem gilt er als Prepper, der sich mit entsprechendem Equipment und einem Fluchtort auf ein mögliches Weltuntergangsszenario vorbereitet hat.

Was tun Tools for Humanity und Worldcoin?

Tools for Humanity, geleitet von Alexander Blania, soll die Folgen mächtiger KI-Systeme abfedern. Unter der Marke Worldcoin will das Startup die Iris aller Menschen auf Erden scannen, um ihre Identität zu verifizieren und sie vor Manipulation zu schützen. Diese biometrischen Informationen könnten auf der Blockchain gespeichert werden, um die Echtheit einer Person zu bestätigen.

Zudem kontrolliert Altman als Vorsitzender des Aufsichtsrats das kalifornische Kernenergieunternehmen Oklo. Beim Kapitalmarkttag der Firma im Februar prognostizierte er einen massiv ansteigenden Energiebedarf aufgrund der KI-Entwicklung. Das Kernfusions-Startup Helion, in das er vor drei Jahren 375 Millionen Dollar investierte, hat inzwischen einen Deal mit Microsoft unterschrieben und soll mit OpenAI verhandeln. 

Ein bisschen mehr Reflektion

Die Frage, wie gefährlich Sam Altman und das von ihm geführte OpenAI tatsächlich sind, bleibt zentral in der Debatte um die Zukunft der Künstlichen Intelligenz und deren Auswirkungen auf die Gesellschaft. Altman geht große Risiken ein. Seine Ambitionen und Handlungen könnten erhebliche Folgen für die globale Sicherheit und Stabilität haben. All jene, die OpenAI inzwischen verlassen haben - oder gehen mussten - sind sich jedenfalls einig: Ein bisschen weniger Tempo und Zeit zum Reflektieren, wohin die Reise gehen soll, wäre das Gebot der Stunde.

Kommentar schreiben

* Pflichtfelder.

leadersnet.TV