Polarisierende Beiträge im X-Feed beeinflussen die Einstellung gegenüber politisch Andersdenkenden. Eine Studie zeigt, dass bereits kleine Veränderungen im Feed rasch Auswirkungen haben.
Forscher der Stanford University haben ein Tool entwickelt, um die parteipolitische Feindseligkeit in einem Feed der Online-Plattform X spürbar zu verringern. Dabei werden keine Inhalte geblockt, sondern nur neu angeordnet, berichten die Wissenschaftler der US-Elite-Universität in der Fachzeitschrift «Science». Die Studie deutet auch darauf hin, dass es eines Tages möglich sein könnte, den Nutzern die Kontrolle über ihre eigenen Social-Media-Algorithmen zu überlassen - nicht nur bei X (ehemals Twitter), sondern auch auf anderen Plattformen.
Nach der Übernahme von Twitter im Jahr 2022 hatte Tech-Milliardär Elon Musk viele Beschränkungen aufgehoben, die Nutzer der Plattform vor Hassrede und Falschinformationen schützen sollten. Wer Musks rechte politische Ansichten teilt, dessen Stimme bekam mehr Gewicht bei dem Dienst.
Feed mit KI in Echtzeit neu sortiert
Das Stanford-Team entwickelte nun ohne Zusammenarbeit mit X eine Browser-Erweiterung, mit der die X-Feeds der Studien-Teilnehmer neu geordnet wurden. Beiträge, die antidemokratische Einstellungen und parteipolitische Feindseligkeit zum Ausdruck brachten, wurden dabei im Feed eines Nutzers nach unten verschoben. Betroffen waren Inhalte, in denen Gewalt befürwortet oder die Inhaftierung von Anhängern und der gegnerischen Partei gefordert wurde. Dabei analysierte ein KI-Sprachmodell den X-Feed in Echtzeit. Im Gegensatz zu einem Werbeblocker, der als Browser-Erweiterung Werbeinhalte ausblendet, wurden bei dem Experiment der Stanford-Wissenschaftler keine Inhalte gelöscht oder blockiert.
Der Feldversuch wurde vor den Präsidentschaftswahlen 2024 mit 1.256 Teilnehmerinnen und Teilnehmern auf X vorgenommen. Die Probanden wurden nach dem Zufallsprinzip zwei parallelen Experimenten zugewiesen, in denen ihre Feeds eine Woche lang dynamisch neu sortiert wurden. Die erste Gruppe bekam polarisierende Posts weiter vorn angezeigt, die zweite weiter hinten im Feed. Bei denjenigen, deren antidemokratische Inhalte herabgestuft wurden, habe sich eine positivere Einstellung gegenüber der gegnerischen Partei gezeigt. Der Effekt zeigte sich parteiübergreifend und galt sowohl für Personen, die sich als liberal als auch solchen, die sich als konservativ eingestuft hatten.
Nutzer können Feeds selbst gestalten
«Social-Media-Algorithmen haben einen direkten Einfluss auf unser Leben, aber bisher hatten nur die Plattformen die Möglichkeit, sie zu verstehen und zu gestalten», sagte Michael Bernstein, Professor für Informatik an der Stanford School of Engineering und leitender Autor der Studie. «Wir haben einen Ansatz vorgestellt, der Forschern und Endnutzern diese Möglichkeit bietet.»
Das Tool könnte auch Wege eröffnen, um Maßnahmen zu entwickeln, die nicht nur die parteipolitische Feindseligkeit mindern, sondern auch ein größeres soziales Vertrauen und einen gesünderen demokratischen Diskurs über Parteigrenzen hinweg fördern, sagte Bernstein.
Kleine Änderungen im Algorithmus mit großen Wirkungen
Josephine Schmitt, Wissenschaftliche Koordinatorin am Center for Advanced Internet Studies (CAIS) in Bochum, sagte, die Studie zeige robuste, teils recht starke Effekte auf die emotionalen Spannungen zwischen unterschiedlichen politischen Lagern. «Die Studie macht damit deutlich, dass schon kleine algorithmische Eingriffe messbar die Gefühle gegenüber der politischen Gegenseite verschieben. Das stützt die grundsätzliche Aussage: Feed-Sortierung ist nicht neutral, sie wirkt auf Emotionen und damit auf affektive Polarisierung.»