top of page

Vertrauen mit Risiko: Warum KI-Chatbots oft überzeugend klingen – und trotzdem falsch liegen

Millionen Deutsche greifen täglich auf KI-Chatbots zurück, um sich zu informieren, doch häufig liegen diese falsch. Mehr dazu jetzt in den "Besser Leben News".


Ob sie ChatGPT nach dem Ausgang einer Wahl fragen, sich von Gemini die wichtigsten Nachrichten zusammenfassen lassen oder bei Perplexity nach den Hintergründen zum Nahostkonflikt erkundigen. Weltweit sind es rund 800 Millionen Menschen, die allein ChatGPT wöchentlich nutzen. Für viele ersetzt der digitale Assistent längst die klassische Google-Suche.


Vertrauensvolle Nutzung mit Risiken


Doch dieses Vertrauen ist nicht ohne Gefahr. Eine aktuelle Untersuchung der Europäischen Rundfunkunion (EBU) zeigt, wie anfällig die beliebtesten KI-Systeme für Fehler sind. Der Zusammenschluss von 68 öffentlich-rechtlichen Sendern aus 56 Ländern hat die Zuverlässigkeit der bekanntesten Chatbots unter die Lupe genommen – mit teils alarmierenden Ergebnissen.


Wenn künstliche Intelligenz irrt


ChatGPT etwa behauptet unbeirrt, Papst Franziskus sei noch am Leben. Microsofts Copilot, integriert in Programme wie Word und Excel, weiß nicht, dass Schweden inzwischen Mitglied der NATO ist. Und Googles Gemini bezeichnet die Wiederwahl von Donald Trump als „möglich“, obwohl sie längst erfolgt ist.


Experten warnen vor trügerischer Sicherheit


„Die Systeme klingen überzeugend, auch wenn sie immer wieder vollkommen falsche Dinge behaupten“, erklärt Peter Posch, Wirtschaftswissenschaftler an der Technischen Universität Dortmund. „Das macht sie für ungeübte Nutzer besonders gefährlich, weil die Fehler oft nicht sofort erkennbar sind.“

bottom of page