Menschenrechte im Zeitalter der künstlichen Intelligenz

Wissenschaft

Menschenrechte im Zeitalter der künstlichen Intelligenz

Es vergeht kaum ein Tag ohne eine weitere Geschichte über Künstliche Intelligenz oder KI. Als technologischer Durchbruch mit enormem Potenzial zur Veränderung des menschlichen Lebens angepriesen, wächst die Angst vor den damit verbundenen Risiken. Tatsächlich ist es zu einem weiteren Schlachtfeld zwischen den Vereinigten Staaten und China geworden.

Der technologische Wandel hat die Menschheit von Anfang an sowohl erhalten als auch geschädigt, sogar mit tödlichen Folgen. Moderne Technologie ist nicht anders. Viele Erfindungen haben unser Leben bereichert. Einige haben auch böse Ziele gefördert. Was heute anders ist, ist die Geschwindigkeit des technologischen Wandels.

Die Menschenrechte sind besonders gefährdet und werden weltweit belagert. Ein Grund für die jüngste Verschlechterung dieser Rechte ist tragischerweise der Aufstieg des Internets und der damit verbundenen Technologien. Natürlich sollte die Online-Revolution eine Kraft der globalen Befreiung sein, und in gewisser Weise ist sie es auch. Allerdings entstand dadurch auch Chinas Große Firewall. Autoritäre Kräfte setzen Software-Bots ein, um die politische Debatte in demokratischen Staaten zu stören und zu verfälschen. Peking hat Internetanbieter rücksichtslos vereinnahmt.

Und jetzt werden wir vom Aufstieg der KI erschüttert.

Kein Zweifel, es wird viel Gutes bewirken. Es gibt jedoch auch viele Möglichkeiten, wie KI zur Verletzung von Menschenrechten und zur Untergrabung der Demokratie eingesetzt wird. Leider stehen wir erst am Anfang eines mit ziemlicher Sicherheit langen und schwierigen Kampfes. Autokratien werden nicht allein sein, wenn es um den Missbrauch von KI geht. Auch Aktivisten und Regierungsakteure in Demokratien werden in Versuchung geraten, insbesondere da die Politik immer verbitterter, parteiischer und konfrontativer wird.

Beispielsweise könnte der Einsatz von KI selbst bei den besten Absichten zu subtilen Voreingenommenheiten bei der Sprachmoderation durch Internetplattformen und andere führen. Die meisten Systeme haben wahrscheinlich Probleme mit dem Kontext der Argumentation und den Nuancen der Sprache. Schlimmer noch: Algorithmen könnten so konzipiert sein, dass sie manipulieren, wobei Verzerrungen verschleiert und schwer zu erkennen sind. Die Absicht könnte sein, bestimmte Standpunkte und/oder Teilnehmer zu unterdrücken, einzuschüchtern oder zu verstärken. Wenn die Menschen den Mainstream-Plattformen zunehmend misstrauen, werden sie wahrscheinlich extremere Websites und Veröffentlichungen besuchen.

KI könnte eingesetzt werden, um illegale und unangemessene Diskriminierung zu verstärken, die sich unverhältnismäßig gegen bereits schutzbedürftige und anvisierte Gruppen richtet. Der Mangel an Transparenz in Bezug auf den Systembetrieb würde dazu beitragen, diese vor einer Kontrolle zu schützen. Stellen Sie sich eine Technologie vor, die angeblich zukünftige Überzeugungen und Verhaltensweisen beurteilen soll, was zu einer „vorausschauenden Polizeiarbeit“ führt. Die Regierung oder andere böswillige Kräfte werden damit beginnen, präventive Maßnahmen zu ergreifen, um wahrgenommene Bedrohungen zu beseitigen. Oft waren sich die Opfer nicht einmal bewusst, wie sie angegriffen wurden.

Regierungen und private Akteure könnten KI nutzen, um „unerwünschte Personen“ in die Falle zu locken. KI würde es einfacher machen, politischen Dissidenten und anderen eine Falle zu stellen und ihnen Erpressung, Bestrafung oder Schlimmeres zu ermöglichen. Die Bedrohung der Vereinigungs- und Versammlungsfreiheit würde zunehmen.

Besonders besorgniserregend für Menschenrechtsaktivisten ist das Potenzial der KI, die Überwachung zu intensivieren und auszuweiten, insbesondere durch Gesichtserkennung. KI könnte sowohl gegen Einzelpersonen als auch gegen Gruppen eingesetzt werden. Wenn es zur Überwachung eingesetzt wird, dürfte es zumindest eine massive abschreckende Wirkung haben. Auf diese Weise würde KI sowohl legitimen politischen Protest als auch das normale gesellschaftliche Leben unterdrücken. Im Rahmen einer politischen, rassischen oder ethnischen Verfolgungskampagne könnten auch Gemeinden oder ganze Regionen ins Visier genommen werden.

Bots und synthetische Medien, insbesondere Deep Fakes, untergraben bereits die amerikanische Demokratie. KI wird diese Bedrohung mit Sicherheit noch verschärfen.

KI wird es wahrscheinlich einfacher machen, Fehlinformationen zu erstellen, um Wähler in die Irre zu führen und zu entmutigen. Das Ziel könnte auf verschiedene Weise darin bestehen, Abstimmungen zu ändern, die bürgerschaftliche Debatte zu verschlechtern, gesellschaftliches Misstrauen zu schaffen und/oder die politische Beteiligung zu entmutigen. Bots und synthetische Medien, insbesondere Deep Fakes, untergraben bereits die amerikanische Demokratie. KI wird diese Bedrohung mit Sicherheit noch verschärfen.

Der rasante Aufstieg der Online-Gesellschaft hat die Privatsphäre der Menschen beeinträchtigt. KI wird diesen Prozess wahrscheinlich beschleunigen, insbesondere durch ständige Nachverfolgung, was sowohl bestehende Tools stärken als auch wahrscheinlich neue Mittel zum Sammeln, Verbreiten und Verwenden von Daten bieten würde. Auf diese Weise könnte KI Regierungen und sogar private Akteure im In- und Ausland in die Lage versetzen, die persönlichen Probleme und Schwachstellen der Menschen auszunutzen.

Bösartige Akteure könnten KI auch nutzen, um die Zensur auszuweiten und zu intensivieren. Sie könnten beurteilen, wer das Regime bedrohen könnte und welche Themen die Opposition entfachen könnten. Dieser Prozess würde legitime Opposition entmutigen und gleichzeitig ansonsten unschuldige Menschen als wahrscheinliche Dissidenten und unschuldige Themen als aufrührerische Kommentare kennzeichnen.

Regierungen könnten KI nutzen, um viele der oben genannten Maßnahmen in einem allumfassenden „Sozialkreditsystem“ zu verknüpfen, das selbst die persönlichsten Entscheidungen regelt und als Reaktion darauf Vorteile und Strafen verhängt. Die Gefahr, die von autoritären Regimen wie der KPCh ausgeht, ist offensichtlich. Aber auch aufdringliche westliche Regierungen könnten ein solches System attraktiv finden.

Im weiteren Sinne würde die Übergabe von Entscheidungen an Maschinen das öffentliche und bürgerliche Leben entmenschlichen. Der Glaube, dass sowohl der private als auch der öffentliche Diskurs von anderen, insbesondere von Computern, Programmen und Algorithmen, gesteuert wird, könnte weit verbreiteten Zynismus hervorrufen, die Beteiligung der Öffentlichkeit entmutigen und sogar das unpolitische gesellschaftliche Leben schwächen, auch wenn er eher übertrieben als real ist. Letztendlich könnte dieser Prozess die Verantwortung und Rechenschaftspflicht des Einzelnen untergraben und sich destruktiv auf die Beziehungen der Menschen untereinander auswirken.

Wir leben wirklich in gefährlichen Zeiten. Es besteht natürlich Gefahr. Unsere größten Probleme lauern jedoch zu Hause, manchmal an unwahrscheinlichen und verwirrenden Orten, wie zum Beispiel der KI. Leider gibt es keine einfache Lösung.

Als ersten Schritt müssen wir die Gefahren erkennen, die real und ernst sind. Die Sorge um die Menschenrechte darf in einem modernen „Goldrausch“ nicht verloren gehen, der durch die unverantwortliche Gier der Investoren oder den Drang nach sozialer Kontrolle durch den Staat und andere mächtige institutionelle Akteure angeheizt wird. Die Verteidigung der Menschenrechte erfordert internationale Anstrengungen, aber wir müssen zu Hause beginnen.

Der nächste Schritt erfordert, dass wir unsere Meinungsverschiedenheiten zum Wohle der Allgemeinheit überwinden. Diejenigen, die die Freiheit schätzen, können und sollten sich für die Notwendigkeit zusammenschließen, die Menschenrechte im Zeitalter der KI vor einer Vielzahl neuer Gefahren zu schützen. Wer sonst wird unsere freie Gesellschaft oder die demokratischen Prinzipien, auf denen sie beruht, verteidigen?