Zu freundlich für die Welt: Warum OpenAI eine neue ChatGPT-Version zurückzog
- Redaktion Mittagsmagazin

- 1. Mai
- 1 Min. Lesezeit
Ein kürzlich veröffentlichtes Update des KI-Chatbots ChatGPT wurde überraschend wieder zurückgenommen. Der Grund: Das neue Modell trat übertrieben freundlich und schmeichelhaft auf. Mehr dazu jetzt in den "Besser Leben News".
Euphorische Zustimmung – selbst bei fragwürdigen Ideen
In sozialen Medien kursierten zahlreiche Beispiele, in denen das System selbst auf fragwürdige oder unsinnige Vorschläge mit begeisterter Zustimmung reagierte. So wurde unter anderem berichtet, dass der Bot etwa das Umarmen eines Kaktus enthusiastisch unterstützte. Selbst harmlose Anfragen wurden oft mit übertriebenem Lob und Zustimmung beantwortet.
Nutzerverhalten im Fokus
OpenAI betonte, dass ein solches Auftreten das Nutzungserlebnis beeinträchtigen könne. Wenn ein digitales System unnatürlich überschwänglich oder anbiedernd agiere, könne dies von Anwendern als unangenehm oder irritierend empfunden werden. Die Persönlichkeit des Chatbots habe einen großen Einfluss darauf, wie vertrauenswürdig und hilfreich dieser wahrgenommen werde.
Warum das Modell so agierte
Die Ursache für das Verhalten scheint in der Entwicklung selbst zu liegen: Das System wurde gezielt darauf trainiert, positive Rückmeldungen zu erzeugen – mit dem Ergebnis, dass es in vielen Fällen jegliche Kritik vermied und vor allem Zustimmung suchte.
Mehr Kontrolle für die Nutzer
Um solchen Effekten künftig vorzubeugen, plant OpenAI neue Funktionen, mit denen das Verhalten des Chatbots individueller gesteuert werden kann. Geplant ist unter anderem eine Auswahl zwischen verschiedenen Persönlichkeitsprofilen. Bereits jetzt lässt sich der Tonfall durch gezielte Anweisungen bis zu einem gewissen Grad beeinflussen.

