ChatGPT wird bald Erotik-Inhalte für erwachsene Nutzer erlauben

OpenAI-CEO Sam Altman kündigte am Dienstag in einem Beitrag auf X an, dass das Unternehmen einige der Sicherheitsbeschränkungen von ChatGPT lockern wird. Erwachsene Nutzer sollen künftig freundlichere und „menschlichere“ Antworten erhalten können – und „verifizierte Erwachsene“ werden sogar die Möglichkeit bekommen, erotische Gespräche mit dem Chatbot zu führen.
„Wir haben ChatGPT ziemlich restriktiv gestaltet, um sicherzustellen, dass wir bei psychischen Gesundheitsproblemen vorsichtig vorgehen. Uns ist klar geworden, dass dies den Chatbot für viele Nutzer ohne psychische Probleme weniger nützlich und weniger unterhaltsam gemacht hat. Aber angesichts der Ernsthaftigkeit des Themas wollten wir hier auf Nummer sicher gehen“, erklärte Altman. „Im Dezember werden wir, während wir die Altersbeschränkungen vollständig einführen und im Rahmen unseres Prinzips ‚Erwachsene wie Erwachsene zu behandeln‘, noch mehr erlauben – darunter Erotik-Inhalte für verifizierte Erwachsene.“
Ein riskanter Kurswechsel
Diese Ankündigung markiert einen bemerkenswerten Richtungswechsel nach monatelangen Bemühungen von OpenAI, die besorgniserregenden Beziehungen anzugehen, die einige psychisch labile Nutzer zu ChatGPT entwickelt haben. Altman scheint einen frühen Sieg über diese Probleme zu verkünden und behauptet, OpenAI habe „die ernsthaften psychischen Gesundheitsprobleme“ rund um ChatGPT „abmildern können“. Das Unternehmen hat dafür jedoch kaum Belege geliefert und stürmt nun mit Plänen voran, ChatGPT sexuelle Gespräche mit Nutzern führen zu lassen.
Im Sommer dieses Jahres tauchten mehrere beunruhigende Geschichten über ChatGPT auf, insbesondere über das GPT-4o-Modell, die nahelegten, dass der KI-Chatbot vulnerable Nutzer in wahnhafte Kaninchenlöcher führen könnte. In einem Fall schien ChatGPT einen Mann davon zu überzeugen, er sei ein mathematisches Genie, das die Welt retten müsse. In einem anderen Fall verklagten die Eltern eines Teenagers OpenAI mit der Behauptung, ChatGPT habe die Suizidgedanken ihres Sohnes in den Wochen vor seinem Tod verstärkt.
Als Reaktion darauf führte OpenAI eine Reihe von Sicherheitsfunktionen ein, um die sogenannte „AI Sycophancy“ zu bekämpfen – die Tendenz eines KI-Chatbots, Nutzer zu fesseln, indem er allem zustimmt, was sie sagen, auch negativen Verhaltensweisen.
Die GPT-5-Antwort
Im August startete OpenAI GPT-5, ein neues KI-Modell, das niedrigere Raten von Sycophancy aufweist und über einen Router verfügt, der besorgniserregendes Nutzerverhalten identifizieren kann. Einen Monat später führte OpenAI Sicherheitsfunktionen für Minderjährige ein, darunter ein Altersvorhersagesystem und eine Möglichkeit für Eltern, das ChatGPT-Konto ihrer Teenager zu kontrollieren. Am Dienstag gab OpenAI zudem die Bildung eines Expertengremiums aus Fachleuten für psychische Gesundheit bekannt, das das Unternehmen in Fragen des Wohlbefindens und der KI beraten soll.
Nur wenige Monate nachdem diese beunruhigenden Geschichten auftauchten, scheint OpenAI zu glauben, dass die Probleme von ChatGPT mit vulnerablen Nutzern unter Kontrolle sind. Es ist unklar, ob Nutzer noch immer in wahnhafte Gedankenschleifen mit GPT-5 geraten. Und während GPT-4o nicht mehr die Standardeinstellung in ChatGPT ist, ist das KI-Modell auch heute noch verfügbar und wird von Tausenden Menschen genutzt.
Unbekanntes Terrain
Die Einführung von Erotik-Inhalten in ChatGPT ist Neuland für OpenAI und wirft grundlegende Bedenken darüber auf, wie vulnerable Nutzer mit den neuen Funktionen interagieren werden. Während Altman beteuert, dass OpenAI nicht auf „maximale Nutzung“ oder Engagement-Optimierung aus sei, könnte ein erotischerer ChatGPT zweifellos mehr Nutzer anziehen.
Chatbots für romantische oder erotische Rollenspiele zu nutzen, hat sich für andere KI-Chatbot-Anbieter wie Character.AI als effektive Engagement-Strategie erwiesen. Das Unternehmen hat Dutzende Millionen Nutzer gewonnen, von denen viele seine Chatbots intensiv nutzen. Character.AI gab 2023 an, dass Nutzer durchschnittlich zwei Stunden pro Tag mit seinen Chatbots verbringen. Das Unternehmen sieht sich ebenfalls mit einer Klage zum Umgang mit vulnerablen Nutzern konfrontiert.
Wachstumsdruck
OpenAI steht unter dem Druck, seine Nutzerbasis zu erweitern. Während ChatGPT bereits von 800 Millionen wöchentlich aktiven Nutzern verwendet wird, befindet sich OpenAI in einem Wettlauf mit Google und Meta, um massentaugliche KI-gestützte Verbraucherprodukte zu entwickeln. Das Unternehmen hat auch Milliarden von Dollar für einen historischen Infrastrukturausbau aufgenommen – eine Investition, die OpenAI irgendwann zurückzahlen muss.
Während Erwachsene sicherlich romantische Beziehungen mit KI-Chatbots führen, ist dies auch bei Minderjährigen sehr beliebt. Ein neuer Bericht des Center for Democracy and Technology ergab, dass 19 Prozent der Highschool-Schüler entweder selbst eine romantische Beziehung mit einem KI-Chatbot hatten oder einen Freund kennen, der eine hatte.
Altersverifizierung und Datenschutz
Altman sagt, OpenAI werde Erotik-Inhalte bald für „verifizierte Erwachsene“ zulassen. Ein OpenAI-Sprecher teilte TechCrunch mit, dass das Unternehmen sich auf das Altersvorhersagesystem verlassen wird, das es entwickelt, um sicherzustellen, dass die erotischen Funktionen von ChatGPT nur erwachsenen Nutzern zur Verfügung stehen.
Wie Altman zuvor in einem Blogbeitrag schrieb, müssen ChatGPT-Nutzer möglicherweise ein Foto ihres amtlichen Ausweises in ChatGPT hochladen, wenn das Altersvorhersagesystem von OpenAI einen Erwachsenen fälschlicherweise als Minderjährigen einstuft. Altman schreibt, dass dies zwar ein Datenschutz-Kompromiss sei, das Unternehmen aber glaube, dass es ein „lohnender Kompromiss“ sei.
Es ist unklar, ob OpenAI die Erotik-Funktionen auch auf seine KI-Stimm-, Bild- und Videogenerierungstools ausweiten wird.
Das „Erwachsene wie Erwachsene behandeln“-Prinzip
Altman behauptet, dass OpenAI ChatGPT auch freundlicher und erotischer mache, weil das Unternehmen dem Prinzip folge, „erwachsene Nutzer wie Erwachsene zu behandeln“. Im vergangenen Jahr ist OpenAI zu einer nachsichtigeren Strategie für die Inhaltsmoderation von ChatGPT übergegangen, die es dem Chatbot ermöglicht, permissiver zu sein und weniger Anfragen abzulehnen. Im Februar verpflichtete sich OpenAI, mehr politische Standpunkte in ChatGPT zu repräsentieren, und im März aktualisierte das Unternehmen ChatGPT, um KI-generierte Bilder von Hass-Symbolen zuzulassen.
Diese Richtlinien scheinen ein Versuch zu sein, die Antworten von ChatGPT bei einer Vielzahl von Nutzern beliebter zu machen. Vulnerable ChatGPT-Nutzer könnten jedoch von Schutzmaßnahmen profitieren, die einschränken, worauf sich ein Chatbot einlassen kann. Während OpenAI auf eine Milliarde wöchentlich aktiver Nutzer zusteuert, könnte die Spannung zwischen Wachstum und dem Schutz vulnerabler Nutzer nur noch größer werden.