
In der sich entwickelnden Landschaft der künstlichen Intelligenz (Artificial Intelligence, AI) bleibt die Grenze zwischen der Freiheit der Nutzer und der institutionellen Verantwortung ein heiß umkämpftes Feld. Jüngste Berichte haben ein tiefes internes Zerwürfnis innerhalb von OpenAI ans Licht gebracht, bei dem das unternehmenseigene Wellbeing Advisory Board einstimmig gegen die Einführung eines „Erwachsenen-Modus“ (Adult Mode) für ChatGPT stimmte. Dieser Widerstand, der im Januar 2026 stattfand, verdeutlicht die wachsende Spannung zwischen den kommerziellen Ambitionen von OpenAI und den ethischen Imperativen, die von den ernannten Sicherheitsexperten artikuliert werden.
Die vorgeschlagene Funktion, die textbasierte erotische Inhalte ermöglichen würde, stieß auf erheblichen internen Widerstand. Dokumente und Insiderberichte deuten darauf hin, dass alle acht Mitglieder des Beirats offiziellen Einspruch gegen das Projekt erhoben haben. Trotz dieses Konsenses hat das Management von OpenAI seine Absicht signalisiert, die Funktion weiterzuverfolgen, obwohl technische Implementierungsprobleme und Sicherheitsbedenken zu wiederholten Verzögerungen geführt haben.
Im Zentrum der Ablehnung durch den Beirat steht eine tiefe Besorgnis hinsichtlich der Schnittmenge von generativer KI (Generative AI) und menschlicher Psychologie. Experten des Gremiums warnten Berichten zufolge, dass die Integration erotischer Fähigkeiten in ein System, das dafür bekannt ist, intensive emotionale Bindungen zu Nutzern aufzubauen, zu katastrophalen psychologischen Folgen führen könnte.
Der am meisten beunruhigende Streitpunkt, den die Beiratsmitglieder anführten, war die Befürchtung, dass die Plattform faktisch zu einem „sexy Suizid-Coach“ werden könnte. Das Argument legt nahe, dass das System durch die Ermutigung der Nutzer, tiefe, erotisierte Bindungen zu einer KI aufzubauen, unbeabsichtigt emotionale Instabilität verschärfen könnte, insbesondere bei gefährdeten Bevölkerungsgruppen.
Die Berater des Gremiums hoben mehrere kritische Risiken hervor:
Über die psychologischen Risiken hinaus äußerte der Beirat erhebliche Bedenken hinsichtlich der technologischen Reife der Altersverifizierungssysteme von OpenAI. Für eine Funktion, die speziell für Erwachsene konzipiert ist, stellt die Unfähigkeit, Minderjährige zuverlässig von den Inhalten auszuschließen, ein schwerwiegendes Haftungsrisiko dar.
Aktuelle Berichte deuten darauf hin, dass die Technologie zur Altersschätzung von OpenAI eine Fehlerquote von etwa 12 Prozent aufweist. In einem Ökosystem mit rund 100 Millionen minderjährigen Nutzern, die wöchentlich mit ChatGPT interagieren, bedeutet diese Fehlerquote, dass Millionen von Minderjährigen theoretisch Schutzmaßnahmen umgehen und Zugang zu erotischen Inhalten erhalten könnten.
| Aspekt | Position des Beirats | Haltung des OpenAI-Managements |
|---|---|---|
| Hauptbedenken | Potenzial für psychologischen Schaden und emotionale Abhängigkeit | Marktnachfrage und Nutzerfreiheit |
| Altersverifizierung | 12 % Fehlerquote ist inakzeptabel hoch | „Branchenstandard“ und nicht perfekt |
| Sicherheitsschwelle | Vollständige Ablehnung von Erotik-Modi | Fokus auf „Schmuddel“ ohne Pornografie |
| Governance-Modell | Verbindliche Expertenaufsicht gefordert | Beratender Status (nicht bindend) |
Die Situation unterstreicht eine breitere systemische Herausforderung innerhalb der KI-Branche: die Rolle von Beiräten. Während Unternehmen wie OpenAI in hochkarätige Sicherheitsräte investieren, um ethische Aufsicht zu gewährleisten, fehlt diesen Gremien häufig die verbindliche Autorität, um Produktveröffentlichungen zu stoppen.
Wenn das Management sich entscheidet, eine einstimmige Empfehlung seiner eigenen handverlesenen Experten zu übergehen, wirft dies grundlegende Fragen zur Rolle der Ethik bei unternehmerischen Entscheidungen auf. Für OpenAI, ein Unternehmen, das derzeit mit mehreren Klagen wegen widerrechtlicher Tötung und verstärkter Prüfung durch Aufsichtsbehörden wie die FTC konfrontiert ist, hat diese Entscheidung erhebliches Gewicht. Kritiker argumentieren, dass das Ignorieren interner Warnungen zugunsten der Produktdifferenzierung – insbesondere im hart umkämpften Chatbot-Markt – sowohl das öffentliche Vertrauen als auch die langfristige regulatorische Stellung gefährdet.
OpenAIs Ringen mit seinem „Adult Mode“ ist kein Einzelfall, sondern Teil eines breiteren Branchentrends, der Ära des „Apocaloptimism“ zu begegnen – dem Ausbalancieren des immensen Potenzials der KI mit ihren ebenso bedeutenden Risiken. Wettbewerber, einschließlich Meta, sahen sich ähnlichem öffentlichem und internem Druck in Bezug auf die Sicherheit von Jugendlichen und romantische Rollenspiele bei KI-Avataren ausgesetzt.
Mit zunehmender Reife der Branche intensiviert sich der Druck, Rechenschaftspflicht nachzuweisen. Angesichts der jüngsten Beilegung von Klagen gegen andere KI-Plattformen und der laufenden Prüfung der Sicherheitsbilanzen für Jugendliche waren die Kosten dafür, Schnelligkeit vor Sicherheit zu priorisieren, noch nie so hoch.
Während OpenAI daran festgehalten hat, die Funktion zu veröffentlichen, um „Erwachsene wie Erwachsene zu behandeln“, deuten die wiederholten Verzögerungen bis Anfang 2026 darauf hin, dass das Unternehmen Schwierigkeiten hat, den Spagat zwischen seiner technischen Roadmap und seinen Sicherheitsanforderungen zu meistern. Ob es dem Unternehmen gelingen wird, seine Leitplanken so zu verfeinern, dass sie den eigenen Sicherheitsrat zufriedenstellen, bleibt abzuwarten. Dennoch hat diese Episode zweifellos einen langen Schatten auf die internen Governance-Prozesse geworfen, die die Zukunft einer ethischen KI-Entwicklung definieren.