Meta soll das Faktenprüfsystem mit Schwerpunkt auf freie Meinungsäußerung umrüsten

Wissenschaft

Meta soll das Faktenprüfsystem mit Schwerpunkt auf freie Meinungsäußerung umrüsten

Die Muttergesellschaft von Instagram und Facebook gab am Dienstag bekannt, dass sie für ihre Plattform in den USA kein Faktenprüfungssystem eines Drittanbieters mehr verwenden wird. Vielmehr wird Meta in den nächsten Monaten auf ein Faktenprüfsystem umsteigen, das dem Community Notes-System nachempfunden ist, das von Elon Musks X, früher bekannt als Twitter, verwendet wurde. Mit Community Notes können Benutzer potenziell irreführenden Beiträgen Kontext hinzufügen.

Darüber hinaus kündigte das Unternehmen an, die Beschränkungen für Inhalte zu bestimmten Themen zu lockern. Stattdessen wird die Plattform ihre Bemühungen zur Durchsetzung von Regeln auf illegale und schwerwiegende Verstöße gegen ihre Richtlinien zur Inhaltsmoderation konzentrieren. Meta sagte, es werde auch eine leichtere Verbreitung politischer Äußerungen auf seinen Plattformen ermöglichen.

Warum macht Meta das alles? Meta habe 2016 damit begonnen, ein Faktenprüfsystem eines Drittanbieters zu nutzen, machte jedoch deutlich, dass es nicht die Absicht habe, der Schiedsrichter der Wahrheit zu sein, sagte das Unternehmen. Die Plattform wollte unabhängige Experten gewinnen, die ihr Verständnis für bestimmte Themen nutzen sollten, um viralen Falschmeldungen im Internet entgegenzuwirken. Aber diese Experten brachten ihre eigenen Vorurteile und Perspektiven in ihre Arbeit ein und markierten gleichzeitig Inhalte, bei denen es sich tatsächlich um legitime Äußerungen handelte, so das Unternehmen. Dadurch führten sie dazu, dass die automatisierten Systeme von Meta Sprache falsch etikettierten und ihre Verbreitung einschränkten.

Meta sagte, es sei Zeuge des Erfolgs des von Dadurch sollten Benutzer umfassendere und weniger voreingenommene Informationen über das, was sie sehen, erhalten, so das Unternehmen.

Im Hinblick auf seine Pläne, Beschränkungen für bestimmte Meinungsäußerungen zu lockern, räumte das Unternehmen ein, dass es zuvor bei der Regulierung bestimmter Inhalte zu weit gegangen sei. Das Unternehmen gab zu, dass es zu viele Inhalte regulierte und bei der Durchsetzung seiner Regeln hartnäckig vorging. Im Dezember 2024 gab Meta bekannt, dass es etwa 1 % des gesamten auf seiner Website veröffentlichten Inhalts entfernt hat, was Millionen von Inhalten pro Tag entspricht. Und etwa jeder fünfte dieser Inhalte habe nicht gegen die Inhaltsmoderationsrichtlinien des Unternehmens verstoßen, gab das Unternehmen zu.

Meta sagte, dass es automatisierte Systeme verwende, um alle Richtlinienverstöße zu scannen. Doch die Konzentration auf jeden noch so kleinen Verstoß habe zu zu vielen Fehlern und zu viel Zensur geführt, so das Unternehmen. Aus diesem Grund sagte Meta, dass es seine automatisierten Systeme nun so umgestalten werde, dass sie nur noch nach illegalen Inhalten und schwerwiegenden Verstößen gegen seine Regeln suchen, so das Unternehmen. Zu diesen Inhalten zählen unter anderem Darstellungen des sexuellen Missbrauchs von Kindern, Betrug, terroristische Inhalte und Drogenkonsum.