Aufrufe
vor 2 Monaten

DIE FURCHE 21.11.2024 + booklet

DIE

DIE FURCHE · 47 2 Das Thema der Woche Meinungs-Maschinen 21. November 2024 AUS DER REDAKTION Dieser Text ist von Menschenhand geschrieben. Und das ist längst nicht mehr selbstverständlich: Immer mehr Medien ersetzen Journalistinnen und Journalisten durch Künstliche Intelligenz. Längst Realität ist zudem die Zersetzung des öffentlichen Diskurses durch Algorithmen. Wie rasch ein soziales Medium zu einer Propaganda-Plattform umgebaut werden kann, zeigt derzeit Elon Musk. Im Fokus „Meinungs-Maschinen“ von Philipp Axmann werden beide Entwicklungen analysiert, Otto Friedrich kommentiert im „Zeit-Weise“ zudem den „eXit“ von „Austrotwitter“. Und auch sonst erwarten Sie in dieser Ausgabe hochspannende Geschichten: Brigitte Quint konnte den US-Politologen Peter J. Katzenstein für ein atemberaubendes Interview gewinnen, Martin Tauss bespricht das Buch „Die kommenden Diktaturen“ von Fritz B. Simon und Manfred Prisching analysiert die Unbehaglichkeit vor der Steiermarkwahl. Um die Zukunft des Religionsunterrichts und den sehenswerten Film „Konklave“ geht es im Kompass – und um Anna Mitgutschs brillanten Erzählband „Unzustellbare Briefe“ im Feuilleton. Hoffentlich erfolgreich zugestellt wird das fulminante booklet, die von Brigitte Schwens-Harrant konzipierte und von Rainer Messerklinger kongenial illustrierte FURCHE-Literaturbeilage, die pünktlich zum Start der „Buch Wien“ erscheint. „Hoch im Kurs“ lautet das Motto. Und ja, alles aus feinster Menschenhand. (dh) Das Gespräch führte Philipp Axmann Üblicherweise sprechen Politikerinnen und Journalisten auf Twitter, das Elon Musk in X umgetauft hat. In den letzten Tagen sprachen sie aber vor allem über das Soziale Netzwerk – und einige haben es lautstark verlassen (siehe Seite 15). Die Datenanalytikerin Jana Lasser dagegen erforscht, wie alternative Algorithmen zu weniger Hass auf X, TikTok und Co führen können. Ein Gespräch über Künstliche Intelligenz, Falschnachrichten und Macht. DIE FURCHE: Was ist überhaupt das Problem der momentan verwendeten Algorithmen in Sozialen Medien? Jana Lasser: Ich erforsche speziell die Empfehlungsalgorithmen von Social Media Netzwerken. Diese Algorithmen braucht es, weil es auf diesen Plattformen viel mehr Informationen gibt, als irgendein Mensch konsumieren könnte. Es braucht also irgendeine Technik, die die für uns relevanten Informationen auswählt und uns zeigt. Da stellt sich die Frage: Welche Informationen sind für uns relevant? Das entscheiden momentan die Unternehmen. Und ihre Regel ist: Sie zeigen uns die Inhalte, die uns am längsten auf der Plattform halten. Denn das bedeutet mehr Zeit, in der wir Werbungen sehen. Und somit für Facebook, X und Co mehr Geld durch Werbeeinnahmen. Das Problem damit ist, dass genau diese Inhalte oft die emotionalsten sind, außerdem emotionalisiert Entertainment natürlich viel mehr als seriöse Information. Im Großen und Ganzen befördern die gegenwärtigen Algorithmen somit die Spaltung der Gesellschaft und es entstehen Informationsblasen. So haben verschiedene Gruppen ganz unterschiedliche Bilder von der Welt, die nicht mehr kompatibel miteinander sind. DIE FURCHE: Und wie wollen Sie das mit Ihrer Forschung verändern? Lasser: Unser Ziel ist, Algorithmen zu entwickeln, die Inhalte anders empfehlen. Die nicht nur die Aufmerksamkeit maximieren, sondern eine gute Gesprächsbasis schaffen. Wir setzen uns für guten zivilen Diskurs ein. DIE FURCHE: Was ist das überhaupt? Lasser: Da orientiere ich mich an Habermas. Ein Ansatz ist dabei, die Informiertheit der Bürgerinnen und Bürger zu fördern. Da geht es um journalistische Qualitätskriterien. Eine zweite Dimension: Wir wollen, dass möglichst viele Menschen am Diskurs teilnehmen können, im besten Fall die ganze Bevölkerung. Das ist momentan nicht so, denn online geht es oft sehr toxisch zu. Die Definition von Toxizität ist, dass sie Leute dazu bringt, das Gespräch zu verlassen. Mit all der Hassrede ist das gerade häufig der Fall. Toxische Inhalte sollten weniger Aufmerksamkeit bekommen, als sie das momentan tun. Die dritte Dimension ist, Blasenbildung zu vermeiden. Inhalte sollten nicht entweder nur Linken oder nur Konservativen empfohlen werden. Das sollte sich mehr überlappen. Was viele Rechte klicken, zeigen wir dann ein paar mehr Linken – und umgekehrt. Damit wollen wir die sogenannte ideologische Segregation der Inhalte reduzieren. DIE FURCHE: Zur Informiertheit der Bürger: Wer bestimmt denn, was gute Quellen sind? Bild: iStock/J Studios Logik der Aufregung Die aktuellen Algorithmen der Sozialen Netzwerke folgen der Logik der Aufmerksamkeitsökonomie. Fatal, denn am meisten Klicks bekommt, wer am meisten aufregt. Lesen Sie auch das Interview „Extremismus und soziale Medien: Jeder kann radikal werden“ vom 30.8.2024 auf furche.at. Jana Lasser entwickelt Algorithmen, die Soziale Medien weniger polarisierend machen. Wie das gelingt und was die EU für bessere digitale Diskurse tun muss. „Riskiert ein Tweet die Menschenwürde?“ Lasser: Das ist nicht einfach. Wir orientieren uns an den neun journalistischen Qualitätskriterien, die das Unternehmen NewsGuard erstellt hat. Dazu zählt, ob eine Nachrichtenseite einen Prozess hat, um Fehler zu korrigieren, ob sie klar zwischen Meinung und Nachricht unterscheidet, ob sie wiederholt signifikant falsche Informationen veröffentlicht und ähnliches. News- Guard bewertet damit „ Es geht nicht um Zensur, sondern darum, Aufmerksamkeit umzuverteilen. “ die Glaubwürdigkeit mit einer Punktezahl zwischen null und hundert. Das heißt nicht, dass eine Quelle mit hundert Punkten nie eine Zeitungsente publiziert, aber sie hat dann jedenfalls einen Prozess, sie zu korrigieren. NewsGuard hat bereits rund 12.000 Nachrichtenquellen weltweit bewertet. Diese Bewertungen kann man nutzen, um Inhalte von vertrauenswürdigen Quellen mehr Leuten auf Social Media zu zeigen als die Postings von Kanälen, die praktisch keinen Qualitätsstandards folgen. DIE FURCHE: Droht da nicht Zensur? Lasser: Das ist eine wichtige Frage und man kann sie nicht schwarz-weiß beantworten. Es geht bei der Umgestaltung von Algorithmen nicht darum, Inhalte komplett zu löschen. Das wäre Zensur. Sondern es geht darum, Aufmerksamkeit umzuverteilen. Es geht darum, einem toxischen Post, der vorher vielleicht hunderttausend Aufrufe bekommen hätte, jetzt nur noch zehntausend Aufrufe zu geben. Das ist keine Zensur. Es stellt sich die Frage: Haben wir ein Recht auf Reichweite? Stehen irgendeinem Hassposting hunderttausend Aufrufe zu? Das Interesse des Individuums an Reichweite müssen wir mit dem Interesse der Gesellschaft ausbalancieren, unsere demokratischen Werte aufrechtzuerhalten. Diese Frage müssen am Ende die Politikerinnen und Politiker beantworten. Wir Forscher stellen nur die Werkzeuge bereit, mit denen man dann regulieren könnte. Damit man dann sagen kann: Wenn ich diesen Hebel umlege, werden weniger toxische Inhalte angezeigt. DIE FURCHE: Elon Musk zeigt, wie machtvoll es ist, an diesem Hebel zu sitzen... Lasser: Mein Ansatz ist, auszuloten, welche Balance sich die Bevölkerung wünscht. Dazu gibt auch schon erste Forschungsergebnisse: Es herrscht über die politischen Lager hinweg Konsens darüber, was akzeptabel ist und was nicht. Man kann auch noch einen Schritt weitergehen und sich überlegen, ob man diese Regeln nicht auch je nach Situation anpassen will: Vielleicht wünscht man sich in einer Pandemie andere Regeln als kurz vor einer Wahl. Im besten Fall werden diese Entscheidungen in demokratischen Institutionen verankert und durch demokratische Prozesse legitimiert. Es wäre gefährlich und jedenfalls nicht legitim, wenn sich Forschende allein hinsetzen und sagen: „das ist gut und das ist schlecht und so ist jetzt der Algorithmus“. Wie wir Aufmerksamkeit verteilen, muss ein gesellschaftlicher Aushandlungsprozess sein. Wir müssen da als Forschende sehr vorsichtig und transparent sein. DIE FURCHE: Soll die EU eigene Soziale Netzwerke betreiben? Lasser: Das ist eine Möglichkeit und sie würde das Problem lösen, dass kommerzielle Interessen privater Unternehmen den Interessen der Gesellschaft entgegenstehen. Aber man hat bei Sozialen Netzwerken immer das Problem, dass man sehr starke Lock-in-Effekte und Netzwerkeffekte hat. Das bedeutet, dass man eine

DIE FURCHE · 47 21. November 2024 Das Thema der Woche Meinungs-Maschinen 3 „ Es wäre gefährlich und nicht legitim, wenn Forschende alleine bestimmen, wie der Algorithmus aussieht. Das muss ein gesellschaftlicher Aushandlungsprozess sein. “ Plattform eigentlich erst verwenden will, wenn sie auch viele Freunde und Bekannte nutzen. Das ist aber ein Paradox, denn die anderen denken genauso. Eine neue Plattform der EU müsste erst einmal beliebt werden. Es kann auch das Modell funktionieren, dass die Plattformen selbst private Unternehmen bleiben und dafür stärker reguliert werden. Das funktioniert auch in der Pharmabranche. Pharmaunternehmen sind privat, aber werden, was die öffentliche Gesundheit angeht, stark reguliert. DIE FURCHE: Apropos EU: Die Union hat unlängst drei Verordnungen erlassen: den Digital-Services-Act, den Digital-Markets-Act und den AI-Act. Sie regulieren digitale Dienste, Märkte und die Nutzung von Künstlicher Intelligenz in Europa. Was bringen diese Gesetze? Und wie beeinflussen sie Ihre Forschung? Lasser: Der Digital-Services-Act ist für Soziale Medien sehr relevant. Er ist das erste Gesetz weltweit, das den großen Plattformen vorschreibt, ihre eigenen systemischen Risiken für die Gesellschaft zu analysieren. Also zum Beispiel für demokratische Prozesse und die Integrität von Wahlen, den zivilen Diskurs, die Menschenwürde und die nationale Sicherheit. Die Unternehmen müssen Risiken identifizieren und Maßnahmen dagegen ergreifen. Das Gesetz nennt auch explizite Maßnahmen: Eben beispielsweise die Anpassung von Empfehlungsalgorithmen. Ein abstraktes Ziel ist damit schon definiert. Aber jetzt muss man noch konkret werden: Wie messe ich das Risiko eines Tweets für die Menschenwürde? Schwierig – und genau das versuche ich zu erforschen. DIE FURCHE: Was verändert sich auf Social Media, jetzt wo zusätzlich das Thema Künstliche Intelligenz explodiert? Lasser: Hier hat der AI-Act der EU wieder Auswirkungen. Denn in vielen Empfehlungsalgorithmen steckt bereits Künstliche Intelligenz, nämlich um Inhalte zu klassifizieren. Also beispielsweise um zu messen, wie toxisch oder emotional ein Posting ist. Der AI-Act verbietet gewisse Arten, Inhalte zu empfehlen. Beispielsweise reguliert er, wenn es darum geht, Emotionen zu klassifizieren und zu versuchen, sie für Manipulation einzusetzen. DIE FURCHE: Zur technischen Umsetzung: Werden Sie da jetzt einfach die Algorithmen von Facebook, X und Co verändern? Lasser: Wir entwickeln sogenannte digitale Zwillinge von diesen Social Media Plattformen. Konkret einen Klon von X, früher Twitter, und einen vom Forum Reddit. In den digitalen Zwillingen experimentieren wir dann mit neuen Algorithmen. Wenn wir von Anfang an mit dem echten X oder Facebook arbeiten würden, wäre das ein Experiment mit einer riesigen Menge echter Menschen. Das ist ethisch nicht ohne Risiko. Denn man hätte sofort eine Wirkung auf Millionen Menschen. Aber was wäre, wenn eine Probeversion eines neuen Algorithmus beispielsweise plötzlich Videos mit Gewalttaten viel sichtbarer machen würde? Was ein neuer Algorithmus in der Praxis macht, ist sehr schwer vorherzusehen. Daher arbeiten wir aus Sicherheitsgründen mit digitalen Zwillingen der Netzwerke. Und erst wenn sich ein neuer Algorithmus im Zwillingsnetzwerk bewährt hat, würden wir vorschlagen, ihn auf einer echten Plattform zu integrieren. Außerdem ist es fast unmöglich, Social-Media-Unternehmen dazu zu bekommen, solche Experimente auf ihren Plattformen zu ermöglichen, da sie selbst kein wirtschaftliches Interesse an der Entwicklung alternativer Algorithmen haben. DIE FURCHE: Gibt es außer den journalistischen Qualitätskriterien noch andere Merkmale von Inhalten, die gut für den Diskurs sind? Lasser: Ein Hinweis ist, wenn Inhalte bei sehr unterschiedlichen Gruppen gut ankommen. Wenn beispielsweise ein Posting Leuten aus dem linken wie auch aus dem rechten Lager gefällt, ist das ein Qualitätsmerkmal. Solche Inhalte sollten wir stärker hervorheben als die Postings, die beispielsweise nur einem politischen Lager gefallen. Das ist ein Ansatz, um die Informationsblasen zu überbrücken. DIE FURCHE: Gibt es sonst noch Methoden, Hassrede im Internet zu reduzieren? Lasser: Ein Zugang ist die sogenannte „kollektive Moderation“. Das ist eine Bottom- Up-Reaktion. Hier tun sich Nutzerinnen und Nutzer zusammen und sagen: „Wir tolerieren diese hasserfüllten Postings nicht und wir wollen was dagegen tun.“ Sie reagieren dann zum Beispiel gezielt auf Hasspostings und zeigen Gegenstandpunkte auf oder unterstützen die Leute, die von Hass betroffen sind. In meiner Forschung konnte ich zeigen, dass das durchaus effektiv sein kann. Und es ist natürlich charmant, dass es kein Eingriff von außen oder oben ist, sondern selbst von den Nutzerinnen und Nutzern organisiert. DIE FURCHE: Sollten wir Verschwörungstheorien zensurieren? Oder kann man die einfach sein lassen, auch wenn sie verrückt sind? Lasser: Es gibt in den Sozialwissenschaften viel Literatur zur Frage, warum es Verschwörungsmythen überhaupt gibt. Eine Hypothese ist, dass sie ein gesellschaftliches Warnsignal dafür sind, wenn sich Eliten zu weit von der Bevölkerung entfernt haben und nicht mehr sinnvoll kommunizieren können, warum Entscheidungen, die Foto: Timotheus Hell „ Vielleicht wünscht man sich auf Social Media in einer Pandemie andere Regeln als kurz vor einer Wahl. “ Jana Lasser ist Professorin für Datenanalyse am „IDea_Lab“, dem interdisziplinären digitalen Labor der Universität Graz. Sie erforscht menschliches Verhalten in Sozialen Medien, die Verbreitung von Falschinformationen und Algorithmen. Im September hat der European Research Council Lasser eine Forschungsförderung von 1,5 Millionen Euro zugesprochen. getroffen werden, gut für die Bevölkerung sind. Die Verschwörungsmythen tauchen dann auf, um die Eliten herauszufordern und sie zur Rechtfertigung zu zwingen. Sie haben also durchaus eine soziale Funktion. DIE FURCHE: Was bedeutet das für unsere Gesellschaft, wenn in Sozialen Medien sehr bald massenhaft Nachrichtenbeiträge gepostet werden, die von Künstlicher Intelligenz geschrieben wurden? Lasser: Ich glaube, es kann funktionieren, dass KI Artikel schreibt wenn ein Mensch die Quellen- und Faktenkontrolle übernimmt. Aber Artikel ganz ohne menschliche Kontrolle zu veröffentlichen, ergibt kein vertrauenswürdiges Medium. Das kann man entsprechend in den Empfehlungsalgorithmen berücksichtigen. DIE FURCHE: Müssen Sie eigentlich zu Forschungszwecken Hassnachrichten lesen? Wie geht es einem damit? Lasser: Inzwischen nicht mehr. Vor ein paar Jahren musste ich zusammen mit Kolleginnen für ein Projekt über kollektive Moderation tausende Postings manuell als Hassrede oder Nicht-Hassrede klassifizieren. Das war das Trainingsmodell für einen Algorithmus, der uns diese Arbeit jetzt glücklicherweise abnimmt. Ich vermeide es, solche Postings zu lesen, denn gerade bei den Datensätzen über Verschwörungstheorien wird man seines Lebens nicht mehr froh, wenn man sich zu sehr vertieft. Meine Doktorandinnen und Doktoranden müssen für ihre Forschung so manches lesen, das kann belastend sein. Wir schauen darauf, dass sie da einen Ausgleich finden. Das ist ein ganz neuer Aspekt der Arbeitssicherheit. DIE FURCHE: Nutzen Sie privat noch Soziale Medien, nach all dem, was Sie darüber forschen? Lasser: Nur sehr kuratiert. Ich verwende fast nur mehr BlueSky (siehe Seite 15). Ich war früher auf Twitter und habe es eigentlich nur professionell genutzt, um Forschungsergebnisse zu teilen. Ich bin recht datenschutzaffin und sah es immer skeptisch, zu viel Privates über mich im Internet stehen zu haben. SINNVOLLES SCHENKEN Ein Geschenk, das lange Freude macht: Laden Sie Ihre Liebsten ein zu einer Entdeckungsreise. Gemeinsam mit alten und neuen Wegbegleiter:innen – digital zurück bis 1945! Beleuchten Sie mit uns die großen Fragen des Lebens: Was gibt Sinn? Wonach suchen Menschen? Mit einem FURCHE-Abo schenken Sie Zeit für neue Perspektiven, für Zugänge, die zum Weiterdenken und Diskutieren anregen. Und: Sie unterstützen tiefgründigen Journalismus. unter den Christbaum legen – Zeit für Wesentliches schenken! Jetzt 4 Wochen gratis lesen! JETZT GESCHENKABO BESTELLEN: www.furche.at/abo/schenken aboservice@furche.at +43 1 512 52 61 52

DIE FURCHE 2024

DIE FURCHE 2023