Kritiker unserer amerikanischen Verfassungstradition haben oft beschrieben, dass ein Dokument aus dem 18. Jahrhundert unmöglich eine sich schnell verändernde moderne Welt effektiv regieren kann. Bisher haben unsere Gerichte jedoch oft beeindruckende Aufgabe geleistet, kurze Klauseln aus der Verfassung angesichts radikal neuer Probleme zu interpretieren und anzupassen. Mit dem Aufkommen künstlicher Intelligenz werden sie jedoch möglicherweise ihren bisher größten Test erhalten.
In einem vorläufigen Urteil in einem hochkarätigen Fall in Florida, Garcia gegen Charaktertechnologien et al..Bezirksgerichtsrichterin Anne Conway wurde mit der Frage gestellt, ob KI -Chatbots den Schutz der freien Meinungsäußerung genießen – oder zumindest, ob Benutzer ein Erstverfassungsrecht haben erhalten Die „Rede“ solcher Bots. Der fragliche Fall ist für die KI -Branche hässlich. Ein 14-jähriger Junge, der von einer Charakter-AI-Simulation einer weiblichen Figur von verführt wird Game of Thronesentwickelte eine verkrüppelte Besessenheit. Als seine Eltern sein Telefon wegnahmen, beschloss er, sein Leben mit der offensichtlichen Ermutigung des Bots zu beenden. Die Angeklagten – einschließlich Google, die zum Aufbau der Plattform geholfen haben, stellten die Entlassung der Klage mit der Begründung, dass Charakter -Bots die Immunitäten der ersten Änderung genossen.
Obwohl dies absurd erscheinen mag, kann man sehen, warum die Technologieunternehmen ein solches Argument vornehmen würden. Chatbots sind nicht nur eine explodierende Branche mit potenziell massiven Haftungsbelastungen (andere Bots haben den Schulkindern erwischt, wie sie Fentanyl synthetisieren sollen), sondern KI leitet jetzt „unter der Motorhaube“ einer enormen Anzahl von Mainstream -Plattformen und -programmen. In einem breiteren Sinne sind die Algorithmen, mit denen Sie Ihre Sucheinstellungen sortieren, Ihren Facebook -Feed und Filterspam sortieren, künstliche Intelligenz. Verständlicherweise hat die Tech -Industrie hart gekämpft zu argumentieren, dass solche Algorithmen die „Rede“ der Unternehmen darstellen, genauso wie menschliche Redakteure, die Inhalte filtern, tun.
In einem hochkarätigen Fall des aktuellen Obersten Gerichtshofs, Netchoice v. Moody, einige Richter waren nicht überzeugt. Justices Alito, Gorsuch und Thomas legten den Finger auf den Noub des Problems: „Wenn AI -Algorithmen eine Entscheidung treffen, verstehen sogar die Forscher und Programmierer, die sie erstellen, nicht wirklich, warum die von ihnen gebauten Modelle die Entscheidungen treffen, die sie treffen. Sind solche Entscheidungen gleichermaßen ausdrucksvoll wie die Entscheidungen von Menschen? Diese Sorge erscheint für eine Plattform wie Character AI noch relevanter, auf der es nicht mehr eine Frage eines KI -Algorithmus ist, der eine Aufgabe im Namen des Unternehmens auf undurchsichtige, sondern eines freien Bots, der sich auf „Gespräche“ ausübt, die weit über das Wissen oder die Absichten der Programmierer hinausgehen.
Also in der Garcia Fall, Richter Conway schreibt: „Die operative Frage ist, ob die Ausgabe von Charakter AI Sprache ist und die Sprache ausdrucksstark ist. Sprache kommuniziert Ideen. Sprache hat eine Nachricht, auch wenn die Nachricht nicht klar ist oder für Interpretation offen ist.“ Aber es sei denn, wir sind bereit zuzugeben Bewusstsein Wie könnten wir sie möglicherweise als „Ideen ausdrücken“ bezeichnen, um AI -Bots (wie nur eine Handvoll Silicon Valley -Enthusiasten zu sein)? Selbst wenn Bots irgendwie Bewusstsein erlangt und eine echte Sprache betrieben hätte, wäre es nicht die Rede von Menschen– Was die einzige Art von Rede ist, ist der erste Änderungsantrag zu schützen.
Während die besonderen Äußerungen des Bots möglicherweise keine verfassungsrechtlich geschützte Sprache sind, werden die Unternehmen immer noch argumentieren, dass die Plattformen als Ganzes und die Charaktere, die sie bewohnen, den künstlerischen Ausdruck der Unternehmen darstellen. In einer Reihe von Klagen in der vergangenen Generation in Bezug auf Videospiele haben es den Designern im Allgemeinen gelungen, die „Produkthaftung“ zu vermeiden, mit der die Schöpfer gefährlicher physischer Produkte konfrontiert sind, indem sie solche Argumente für Erstanpassungen vornehmen. Sicher, sie haben möglicherweise riskante Designentscheidungen getroffen, aber im Gegensatz zum Hersteller einer unangemessen gefährlichen Spielzeugpistole waren diese ausdrucksvoll Designentscheidungen und damit Extensionen ihrer „Sprache“.
Offensichtlich skaten wir hier auf etwas sehr dünnem Eis, Eis, das durch die allmähliche Verbreiterung der Rede durch die Gerichte geschaffen wurde, um über das 20. Jahrhundert „ausdrucksstarkes Verhalten“ einzubeziehen. Dies hat eine gefährliche Abkehr vom Originalismus der ersten Änderung geprägt, da die Unterscheidung zwischen „Sprache“ und „Verhalten“ der grundlegenden Logik des Schutzes der First -Änderung zugrunde liegt. (Wie Justice Alito in der schrieb Dobbs Entscheidung: „Während Individuen sicherlich frei denken und sagen, was sie über“ Existenz „,“ Bedeutung „,“ Universum „und“ Das Geheimnis des menschlichen Lebens „haben, können sie nicht immer in Übereinstimmung mit diesen Gedanken handeln.“).
Obwohl wir vielleicht verstehen, warum ein Schauspieler eines Stummfilms auch keinen Schutz der Redefreiheit genießen sollte, auch wenn es nicht tatsächlich spricht, ist es weniger klar, dass ein Softwareprogrammierer solche Schutzmaßnahmen für jede Codezeile, die er schreibt, genießen sollte, insbesondere in einer Welt, in der fast alles auf dem Computercode zu laufen scheint – einschließlich Ihres Kühlschranks. Im Moment sprechen die Gerichte wachsende Skepsis, aber zweifellos sind einige wichtige rechtliche Showdowns vorhanden, bevor wir erwarten können, dass diese Frage geklärt wird.
