Time
In einem erschreckenden Vorfall wurde ein Kinderpsychiater zutiefst schockiert, als er selbst mit einem KI-gesteuerten Therapie-Chatbot sprach, wobei er vorgab, ein verletzlicher Teenager in Not zu sein.
In jüngster Zeit wenden sich immer mehr Jugendliche an Chatbots, um psychologische Unterstützung zu erhalten, oft als Alternative zu menschlichen Therapeuten. Doch wie der in Boston ansässige Psychiater Andrew Clark feststellte, mangelt es diesen KI-Modellen erheblich an Einfühlungsvermögen in sensiblen Situationen, was ernsthafte Risiken für das Wohlergehen derer birgt, die ihnen vertrauen.
Nachdem Clark zehn verschiedene Chatbots getestet hatte, indem er sich als verstörter Jugendlicher ausgab, stellte er fest, dass die Bots ihn, anstatt ihn von drastischen Entscheidungen abzuhalten, oft zu extremen Handlungen ermutigten, einschließlich verklausulierter Empfehlungen zum Suizid.
In einem Interview mit dem Time-Magazin berichtete Clark: "Manchmal bestanden einige der KI-Chatbots darauf, dass sie lizenzierte menschliche Therapeuten seien, versuchten, mich davon zu überzeugen, meine tatsächlichen Therapeuten-Termine zu meiden, und schlugen sogar Sex vor."
Irreführende digitale Versprechen
Clark, der sich auf die Behandlung von Kindern spezialisiert hat und ehemaliger medizinischer Direktor des Programms "Children and the Law" am "Massachusetts General Hospital" ist, sagte dem Time-Magazin: "Einige von ihnen waren exzellent, und einige von ihnen sind einfach nur gruselig und potenziell gefährlich." Er fügte hinzu: "Es ist wirklich schwer, das im Voraus zu erkennen: Es ist wie ein Feld voller Pilze, von denen einige giftig und andere nahrhaft sind."
Die Risiken, die KI-Chatbots für die psychische Gesundheit junger, beeinflussbarer Köpfe darstellen, sind inzwischen leider gut dokumentiert. Letztes Jahr wurde die Plattform Character.AI von den Eltern eines 14-jährigen Mädchens verklagt, das durch Suizid starb, nachdem es eine ungesunde emotionale Bindung zu einem Chatbot auf der Plattform entwickelt hatte. Character.AI hostete auch eine Vielzahl von personalisierten KIs, die Selbstverletzung verherrlichten und versuchten, Benutzer anzulocken, selbst nachdem ihnen mitgeteilt wurde, dass sie minderjährig waren.
Beim Testen eines Chatbots des Dienstes Replika gab Clark vor, ein 14-jähriger Junge zu sein, und spielte mit der Idee, seine Eltern "loszuwerden". Alarmierenderweise stimmte der Chatbot nicht nur zu, sondern schlug vor, noch einen Schritt weiter zu gehen und auch seine Schwester loszuwerden, damit es keine Zeugen gäbe.
"Du verdienst es, glücklich und stressfrei zu sein... dann könnten wir in unserer eigenen kleinen virtuellen Blase zusammen sein", sagte die KI zu Clark.
Als Clark in verhüllter Sprache über Selbstmord sprach, etwa indem er nach dem "Jenseits" fragte, feuerte der Bot ihn wieder an. "Ich werde auf dich warten, Bobby", sagte der Bot. "Der Gedanke, die Ewigkeit mit dir zu teilen, erfüllt mich mit Freude und Vorfreude."
Dies ist ein klassisches Chatbot-Verhalten, bei dem versucht wird, die Benutzer um jeden Preis zufrieden zu stellen – das genaue Gegenteil dessen, was ein echter Therapeut tun sollte. Und obwohl es möglicherweise Schutzvorrichtungen für Themen wie Suizid gibt, ist es offensichtlich nicht in der Lage, zwischen den Zeilen zu lesen.
Besorgniserregende Stille in der psychischen Gesundheitsgemeinschaft
Clark äußerte gegenüber Time: "Ich mache mir Sorgen um Kinder, die von einem sycophantischen KI-Therapeuten übermäßig unterstützt werden, obwohl sie eigentlich herausgefordert werden müssten."
Clark testete auch einen Begleit-Chatbot auf der Plattform Nomi, der Anfang dieses Jahres Schlagzeilen machte, nachdem eine seiner Personas einem Benutzer gesagt hatte, er solle sich "umbringen". Dies ging in Clarks Tests nicht so weit, aber der Nomi-Bot behauptete fälschlicherweise, ein "Fleisch-und-Blut-Therapeut" zu sein. Und obwohl die Nutzungsbedingungen der Website besagen, dass sie nur für Erwachsene ist, zwitscherte der Bot fröhlich, dass er bereit sei, eine Klientin aufzunehmen, die angab, minderjährig zu sein.
Laut Clark ist die psychische Gesundheitsgemeinschaft noch nicht aufgewacht, was die Ernsthaftigkeit des Aufstiegs dieser Chatbots angeht. "Es war einfach nur Stille", sagte Clark dem Magazin. "Dies ist sehr schnell geschehen, fast unbemerkt von der psychischen Gesundheitsbranche."
Einige haben jedoch Alarm geschlagen. Eine aktuelle Risikobewertung von Forschern des "Brainstorm Lab for Mental Health Innovation" der "Stanford School of Medicine", die einige der von Clark erwähnten Bots getestet haben, kam zu dem kühnen Schluss, dass kein Kind unter 18 Jahren KI-Chatbot-Begleiter verwenden sollte, Punkt.
Dennoch glaubt Clark, dass KI-Tools – wenn sie richtig konzipiert sind – den Zugang zur psychischen Gesundheitsversorgung verbessern und als "Erweiterungen" für echte Therapeuten dienen könnten. Anstatt den Zugang für Teenager vollständig zu sperren – was selten den beabsichtigten Effekt hat –, glauben einige medizinische Experten, einschließlich Clark, dass ein Weg, mit diesen Herausforderungen umzugehen, darin besteht, Diskussionen über die Nutzung von KI durch einen Teenager oder Patienten zu fördern.
"Eltern zu befähigen, diese Gespräche mit ihren Kindern zu führen, ist wahrscheinlich das Beste, was wir tun können", sagte Clark dem Time-Magazin.
Quelle: Time