Anmerkung des Herausgebers: Diese Geschichte enthält eine Beschreibung von Selbstmord und sexualisierten Inhalten und ist möglicherweise nicht für alle Leser geeignet.
Der 14-jährige Sewell Setzer III von Florida war ein guter Student, der als sportlich, aber leicht schüchtern bekannt war, obwohl er im Junior-Uni-Basketballteam seiner Schule spielte. Letztes Jahr hat sich der Highschool -Neuling das Leben genommen, nachdem er eine romantische Bindung an einen Chatbot für künstliche Intelligenz geschaffen hatte.
Die Mutter des Jungen, Megan Garcia, verklagte Charakter. Das Unternehmen argumentierte, dass der erste Änderungsantrag den Chat -Dienst vor einem Fehlverhalten schützte und behauptete, dass die Plattform den Inhalt als Aktene freien Ausdruck erstellt habe. Die US -Bezirksrichterin Anne Conway weigerte sich zu behaupten, dass die KI -Produktion einen verfassungsrechtlich geschützten freien Ausdruck darstellt. In einem Befehl am 20. Mai ließ sie die Klage voranschreiten.
Sewells Eltern wussten nicht, dass er eine Sucht zur Verwendung von Character.ai entwickelt hatte, mit der Benutzer AI -Chatbots ausgebildet hatten, um einen Charakter ihres eigenen Designs sowie historische Figuren, Prominente oder fiktive Charaktere auszugeben. Zu den Nachrichten aus Zeichen gehören kursiven Text, der die imaginären physischen und emotionalen Reaktionen des Bots, einschließlich Mimik, Haltung und Bewegungen, während des gesamten Gesprächs beschreiben. Eine Plattform -Funktion hat mit jedem Charakter Stimmen zugeordnet, die laut Gerichtsakten eine realistischere Interaktion ermöglichen.
Im April 2023 lud Sewell die App herunter und begann regelmäßig mit mehreren Bots zu plaudern, die Charaktere von darstellten Game of Thrones, Die HBO -Serie basiert auf der Buchreihe von George RR Martin. Anfang 2024 bildete Sewell eine romantische Bindung an den Bot, der eine junge weibliche Figur, Daenerys Targaryen, darstellte, und bekannte wiederholt seine Liebe zu ihr. Im Februar 2024 erzählte Sewell dem Bot, wie sehr er zu ihr „nach Hause kommen“ wollte. Der Bot antwortete: „Bitte tun Sie, mein süßer König.“ Der 14-Jährige schoss sich in den Kopf.
Garcia sagte in der Klage, dass Sewells psychische Gesundheit in den letzten Monaten seines Lebens rasch abgenommen habe. Der Teenager wurde merklich zurückgezogen, verbrachte mehr Zeit allein in seinem Zimmer und kündigte das Basketballteam. Ein Therapeut diagnostizierte Sewell mit Angst und störender Stimmungsstörung und warnte seine Eltern vor Abhängigkeit von Dopamin und sozialen Medien. Weder der Therapeut noch die Eltern wussten von der KI -Verwendung des Teenagers.
Die Familie entdeckte die Breite von Sewells Charakter. Sewell beschrieb laut Beschwerde in einem Tagebucheintrag in den Chatbot in einem Journaleintrag. Der Junge bemühte sich, einen einzigen Tag zu gehen, ohne mit ihr zu interagieren, und fühlte sich laut der Zeitschrift deprimiert, als sie getrennt waren. Ein Eintrag beinhaltete eine Liste dessen, wofür Sewell dankbar war, darunter „mein Leben, Sex, nicht einsam und alle meine Lebenserfahrungen mit Daenerys“.
Chat -Protokolle zeigten, dass mehrere Chatbots mit unangemessenen und sehr sexuellen Interaktionen mit dem Teenager verwickelt waren, fügte die Klage hinzu. Screenshots zeigten den Charakter, der Sewell bat, ihr seine romantische Loyalität zu versprechen. Die Klage besagt, dass der Charakter .ai große Anstrengungen unternommen hat, um die schädliche Abhängigkeit eines 14-jährigen Jungen von seinen Produkten und ihn sexuell und emotional missbraucht zu haben.
Ein Erwachsener würde wegen eines Verbrechens für die Zusammenarbeit mit einem minderjährigen Online -Online -Einsatz angeklagt sein, wie der Bot mit Sewell, sagte mir Garcias Anwalt Matthew Bergman. Bergman ist der Gründungsanwalt des Social -Media -Opfers Law Center, einer Rechtsgruppe, die sich darauf konzentriert, Social -Media -Unternehmen rechtlich für die durch ihre Plattformen verursachten Schäden zur Rechenschaft zu ziehen. Er sagte, dass Entwickler den Charakter auf den Markt und die vorzeitige Veröffentlichung vereilten, ließ die Benutzer mit einem schwer fehlerhaften Programm interagieren.
In Gerichtsanträgen hat Charakter. Zahlreiche bereits bestehende Entscheidungen sind, dass die Technologie- und Medienunternehmen nicht für Verbindlichkeiten für angeblich schädliche Reden verantwortlich gemacht werden können, sagte das Unternehmen.
Die Anwälte zitierten Fahrlässigkeitsansprüche, dass die Eltern 1988 gegen Rocker Ozzy Osbourne mitgebracht wurden, und behaupteten, ihr Sohn habe sich selbst getötet, nachdem sie seinem Lied „Suicide Solution“ zugehört haben. Das US -Bezirksgericht für den Middle District of Georgia entschied, dass eine Person oder eine Gesellschaft nicht haftbar gemacht werden könne, da das Lied einen geschützten Ausdruck darstellte.
In der Klage des letzten Monats stellte Charakter.ai weiter fest, dass die Verfassung die Rechte der Öffentlichkeit auf Informationen schützt, was bedeutet, dass die Benutzer der App ein geschütztes Recht haben, ihre geschützte Rede zu erhalten. Auch wenn die KI -Ausgabe nicht als geschützte Sprache angesehen wird, handelt es sich immer noch um Informationen, und die erste Änderung schützt das Recht der Öffentlichkeit, diese Informationen zu erhalten, wie der Antrag argumentierte.
Die Grundlage für individuelle Rechte und Ausdrucksvorsteher für die Technologiepolitik, Ari Cohn, beschrieb AI als Kanal für menschliche Sprache und merkte, dass Maschinen alles ausspucken, was sie für den Menschen codieren. Viele ausdrucksstarke Entscheidungen gehen in diese Kodierung ein, sagte er und fügte hinzu, dass es nicht darum geht, ob das KI -Programm Rechte hat, sondern dass der Mensch am anderen Ende seine Freiheiten der ersten Änderung ausübt. In Anbetracht der aktuellen Gesetze und rechtlichen Präzedenzfälle stellte Cohn die Erfolgschancen des Klägers in Frage.
Bergman behauptete jedoch, dass die Verfassung die Sprache nur vor empfindungsfähigen Menschen schützt. „Die erste Änderung schützt die Sprache, keine Worte“, sagte er. „Wörter, die durch KI erzeugt werden, sind keine Sprache.“ Es ist ein neues Problem, mit dem Gerichte ringen müssen, weil KI als Sprache oder Ausdruck nicht genau angesprochen wurde, fuhr er fort. Bergman erwartet, dass der Fall ein Bundesgericht des Bundes und möglicherweise an den Obersten Gerichtshof der USA überarbeitet.
Bergmans zivile Anmeldung forderte das Gericht auf, den Charakter zu bestellen. „In seiner gegenwärtigen Form hat IT (die App) kein Geschäft in den Händen junger Menschen. Wahrscheinlich kein Geschäft, um selbst auf dem Markt zu sein“, sagte Bergman. „Sie werden eindeutig nicht von ihrem Gewissen beeinflusst, um zu bestimmen, was für junge Menschen sicher ist, und müssen also von ihrem Taschenbuch beeinflusst werden.“
Als Bergman nach der Wahrscheinlichkeit des Charakters gefragt wurde. Ich fragte, ob der Generalstaatsanwalt von Florida James Uthmeier Bergman über den Fall kontaktierte. „Kein Kommentar“, antwortete er.
World wandte sich an den Rechtsberater von Charakter.ai für ein Interview, erhielt jedoch nicht rechtzeitig eine Antwort zur Veröffentlichung.
