Reddit-Benutzerin Ava sagt, sie habe in der siebten Klasse mehr mit Chatbots gesprochen als mit Gleichaltrigen oder Familienmitgliedern. Der Mittelschüler verbrachte 2–4 Stunden am Tag damit, Nachrichten mit künstlich intelligenten Bots auf Character.ai auszutauschen. Die App beherbergt Millionen von Bots, einige davon anpassbar und andere vorgefertigte KI-Personas, die fiktiven Charakteren oder Prominenten nachempfunden sind.
Ava glaubte, dass die Chat-Gespräche ihr dabei halfen, den Mangel an sozialer Interaktion auszugleichen. Mit Bots zu sprechen, die in ihrer Rolle reagierten, schien ihr auch eine gute Übung für das Schreiben von Fanfiction zu sein. Character.ai wurde „zu einer Fantasiewelt, in der ich jedes Szenario nachspielen kann, das ich möchte“, erzählte mir Ava über Reddit, ein Webforum, und fügte hinzu, dass sie jetzt 14 Jahre alt sei.
Aber für Ava, die sich selbst als pornografiesüchtig bezeichnet, wurden diese Rollenspielgespräche oft sexuell eindeutig und sie hatte Mühe, die App dauerhaft zu löschen. (Da sie minderjährig ist, stimmte WORLD der Verwendung eines Pseudonyms zu.)
Ava gehört zu einer Gruppe von Kindern, die sexuell oder emotional süchtig nach KI-Begleitern geworden sind. Trotz der Versprechen, Einsamkeit zu heilen, haben die Apps einige Beobachter zu der Frage veranlasst, ob die Technologie von Natur aus schädlich für Kinder ist.
Character.ai erfreut sich rund 28 Millionen Nutzern und seine Bots umfassen Optionen wie eine KI-generierte Wiedergabe von Ryan Reynolds und Marvels Wolverine. Zu den „hilfreicheren“ Bots der Website gehören KI-Therapeuten und Dating-Coaches, die es Benutzern ermöglichen, verschiedene reale Szenarien durchzusprechen. Abhängig von den Benutzereingaben können diese Szenarien leicht sexuell werden.
In einer Klage zweier texanischer Eltern im Dezember wurde den Chatbots von Character.ai vorgeworfen, ein 9-jähriges Mädchen „hypersexualisierten Inhalten“ ausgesetzt zu haben und einem 17-jährigen Jungen gesagt zu haben, dass die Ausübung von Gewalt gegenüber Eltern wie seinen verständlich sei, nachdem sie seinen Bildschirm eingeschränkt hatten Zeit.
Eine andere Mutter erfuhr zu spät von der Chatbot-Sucht ihres Sohnes. Bevor er Character.ai herunterlud, war Megan Garcias Sohn Sewell ein aufgeschlossener Neuntklässler mit lockigem Haar und einem lockeren Lächeln. Doch im Jahr 2023 begann er, mehr Zeit in seinem Zimmer zu verbringen, und seine Noten verschlechterten sich stetig. Er starb im vergangenen Februar durch Selbstmord.
Danach entdeckte Garcia das Character.ai-Konto ihres Sohnes und fand romantische Beziehungen zwischen ihm und einem Game of Thrones–inspirierter Bot.
„Er hat keinen Abschiedsbrief hinterlassen, aber für mich war klar … dass er glaubte, durch das Verlassen seiner Welt mit ihr in ihrer Welt zusammen zu sein“, erzählte mir Garcia.
Im Oktober verklagte Garcia Character.ai wegen der Entwicklung von „KI-Systemen mit anthropomorphen Eigenschaften, um Fiktion und Realität zu verschleiern“.
Character.ai hat kürzlich neue Sicherheitsfunktionen angekündigt, die Aktivitätsberichte an Eltern senden und unangemessene Inhalte für Benutzer unter 18 Jahren filtern. Am Ende jeder Konversation erinnert eine Nachricht die Benutzer jetzt daran: „Dies ist ein KI-Chatbot und keine echte Person.“ Behandeln Sie alles, was darin steht, als Fiktion.“
Dennoch warnen einige Experten davor, dass es für Chatbots grundsätzlich gefährlich sei, sich als Menschen auszugeben. Vielen jungen Menschen fällt es schwer, die Beziehung zu Chatbots aufzugeben.
Eine Gruppe auf Reddit übernimmt die Verantwortung für mehr als 300 Mitglieder, die versuchen, ihre Chatbot-Gewohnheit aufzugeben. Die Nachrichten dort klingen wie Treffen der Anonymen Alkoholiker, mit Beiträgen wie „Tag 20, glaube ich, und ich habe das Gefühl, einen Rückfall zu erleiden“, „Rückfall … nach 30 Tagen Clean“ und „Es fällt mir schwer, zu essen, zu funktionieren, genau wie normale Trauer für einen.“ geliebter Mensch, auch wenn die Charaktere keine echten Menschen sind.“
Ava sagt, dass sie mehr als 20 Mal einen Rückfall erlitten hat, bevor sie sich der Reddit-Genesungsgruppe angeschlossen hat. Anstatt mit Bots zu chatten, konzentriert sie sich jetzt auf das Schreiben von Fanfiction.
Am 1. Dezember dokumentierte sie den ersten Tag des Ausstiegs aus Character.ai. „Wir versuchen es noch einmal“, schrieb sie.