UB-Logo Online MagazinUntergrund-Blättle

Facebook: Die politische Macht des Tech-Giganten

3295

Ein Algorithmus ist nicht objektiv Facebook: Die politische Macht des Tech-Giganten

eraser-677583-70

Digital

«Sollte Facebook helfen, die Wahl Donald Trumps zu verhindern?» fragten Facebook-Angestellte den Facebook-CEO Mark Zuckerberg.

Facebook polarisiert nicht nur, es ist auch wenig vergleichbar mit konventionellen Medien. Was ein Nutzer in seiner Timeline sieht, ist nicht das Gleiche wie das, was sein Nachbar oder sein Partner sieht.
Mehr Artikel
Mehr Artikel
Bild vergrössern

Facebook polarisiert nicht nur, es ist auch wenig vergleichbar mit konventionellen Medien. Was ein Nutzer in seiner Timeline sieht, ist nicht das Gleiche wie das, was sein Nachbar oder sein Partner sieht. Foto: geralt (PD)

Datum 20. Mai 2016
0
0
Lesezeit6 min.
DruckenDrucken
KorrekturKorrektur
Es mag überraschend klingen, dass diese Frage überhaupt gestellt wurde. Könnte das Social-Media-Unternehmen demokratische Wahlen tatsächlich beeinflussen?

Facebook stellte dies sofort in Abrede. Das Unternehmen habe nie versucht, dies zu tun und es gibt auch keine Hinweise dafür. Die Plattform könnte es aber schon. Facebook ist mittlerweile das mächtigste Medienunternehmen der Welt.

Kein anders Medium hat so viel politischen Einfluss

Das kalifornische Unternehmen ist nicht nur ein Container für Katzenbilder, Eigenwerbung und persönliche Beziehungen, Facebook ist mittlerweile auch das grösste und mächtigste Medienunternehmen der Welt. Kein anderes Medium hat so viel politischen Einfluss.

Selbst wenn man davon ausgeht, dass Facebook diese Macht nicht nutzen wird, ist zu wenig bekannt darüber, wie sie zustande kommt und wie Facebook damit umgeht. Grund genug, sich ein paar Gedanken zu machen, schrieb die «New York Times» am 12. Mai.

Aus dem Nichts kam diese Warnung nicht. Anfang Mai warf der Blog «Gizmodo» Facebook vor, Nachrichten mit konservativen Inhalten systematisch unterdrückt zu haben. Der Bericht des Blogs stützt sich auf Aussagen ehemaliger Facebook-Mitarbeiter. Er rief immerhin so viel Sorge hervor, dass sich Mark Zuckerberg auf Initiative des konservativen Abgeordneten John Thune demnächst im US-Kongress erklären muss.

Bei den Vorwürfen geht es um die Facebook-Rubrik «Trending Topics» (Topaktuell), die es in der Schweiz und in Deutschland nicht gibt. Auf den ersten Blick sieht sie aus wie die Spalte «meist geklickt», die viele Onlinemedien führen. Aber wer oder was entscheidet, was dort auftaucht?

Zunächst das «Wer»

Die meisten Facebook-Nutzer glauben, dass das, was ihnen von Facebook präsentiert wird, von einem Programm bestimmt wird. Glaubt man hingegen den Berichten von «Gizmodo», wird bei Facebook kuratiert wie in jedem anderen Newsroom auch.

Angesichts der Vorwürfe hat Facebook die internen Richtlinien zur Auswahl der Rubrik «Nachrichten-Trends» veröffentlicht: Bei der Entscheidung, was für Facebooks Nutzer «Neuigkeiten» sind, sind in jeder Phase Menschen beteiligt. Inzwischen gibt es dazu auch eine FAQ-Seite von Facebook.

In den «Guidelines» geht es um allgemeine Anweisungen, wie Meldungen zu gestalten und sensible Themen zu behandeln sind. Weiter geht es darum, wann und wie in die Auswahl eingegriffen werden kann, die der Algorithmus von sich aus vorschlägt.

Auf menschliches Urteil kann auch Facebook nicht verzichten

Ganz auf maschinelle Intelligenz, rechtfertigten sich Facebook-Angestellte, könne man sich nicht verlassen. Nach den Unruhen in Ferguson im August 2014, die auf Facebook zu wenig präsent gewesen seien, sei deutlich geworden, dass das menschliche Urteil eben doch unverzichtbar sei. Damals war auf der Social-Media-Plattform die Ice Bucket Challenge im Vordergrund gestanden anstatt die Unruhen in Ferguson.

Aus Sicht von Facebook ist das gegenwärtige System ausgewogen: Elektronische und menschliche Faktoren glichen einander aus.

Geht es um Dinge, die Facebook nicht zeigen möchte, funktioniert die elektronische Auswahl eher weniger gut. Erst kürzlich wurde publik, wie Billigarbeiter auf den Philippinen die Inhalte grosser Plattformen von«unangemessenen» Inhalten säubern – teilweise auf Kosten ihrer psychischen Gesundheit.

Ein Algorithmus ist nicht objektiv

Damit zum «Was?»: Der Algorithmus wählt aus, was schon andere für wichtig oder nützlich befunden haben und präsentiert es auf einer Facebook-Seite an prominenter Stelle. Ganz ähnlich funktioniert die Vorauswahl der Nachrichten. Welche Quellen Facebook nach welchen Kriterien dazu auswertet, ist geheim und wird häufig geändert.

Ein Programm, darauf kann man sich zwar verlassen, entscheidet immer gleich. Genau genommen ist diese Entscheidung aber weder neutral noch objektiv. Denn hinter einem Programm stehen Menschen.

In die Programmierung eines Algorithmus fliessen menschliches Können, menschliche Erfahrung und auch die ein oder andere Schätzung ein. Im Zweifelsfall umfasst sie auch menschliche Vorurteile und Fehler. Welche Richtlinien die Suchmaschine benutzt, weiss der Nutzer nicht. Das Unternehmen legt seine Algorithmen nicht offen, Projektmanager und Programmierer bleiben normalerweise unbekannt.

Facebook ist anders – das ist ein Grund, sich Sorgen zu machen

Na und? Davon abgesehen, dass Facebook ein Technologie- und kein Medienunternehmen ist: Auch Medienunternehmen beschäftigen Angestellte, die menschliche Entscheidungen treffen, sind darauf angewiesen, Geld zu verdienen, sind nicht voll transparent, haben grosse Meinungsmacht und werden von wohlhabenden Menschen kontrolliert, die aus ihrer politischen Anschauung kein Hehl machen.

Doch Facebook ist anders und das ist ein Grund sich Sorgen zu machen, schreibt die «New York Times». Schon wegen seiner schieren Grösse. In vielen Ländern gilt der Markt für Facebook bereits als gesättigt. In der Schweiz gibt es etwa 3,7 Millionen aktive Facebook-Nutzer – das ist fast die Hälfte der Gesamtbevölkerung. In Ländern, in denen Facebook einen kostenlosen Zugang auf die App zur Verfügung stellt wie den Philippinen, stellt Facebook praktisch «das Internet» dar. Facebook gibt die Zahl der weltweiten User mit 1,6 Milliarden an.

Facebook polarisiert

Wer ein Facebook-Konto hat, kennt den selbstverstärkenden Effekt, den die Plattform haben kann: Inhalte, die einigen Leuten gefallen, werden geliked, geteilt, kommentiert. Dadurch erfahren mehr Nutzer davon, die ihrerseits wieder liken, teilen, kommentieren. Eine Art Schneeballsystem, das dadurch unterstützt wird, dass sich die meisten Nutzer «Freunde» suchen, die das eigene Wertesystem teilen. Die Polarisation jeden Inhalts ist damit eingebaut.

Facebook ist wenig vergleichbar

Facebook polarisiert nicht nur, es ist auch wenig vergleichbar mit konventionellen Medien. Was ein Nutzer in seiner Timeline sieht, ist nicht das Gleiche wie das, was sein Nachbar oder sein Partner sieht. Was wieder am Algorithmus liegt – diesmal am persönlichen. Auch das wäre nicht schlimm, im besten Fall ist diese Auswahl sogar nutzerfreundlich, wie Facebook behauptet.

Wenn das Problem der Kontrolle nicht wäre. Um konventionelle Medien zu vergleichen, werden sie nach Inhalten durchsucht. Haben von den grossen Zeitungen beispielsweise drei ein wichtiges Thema aufgegriffen und die vierte nicht, kann man fragen, wo die Gründe dafür liegen. Bei Facebook ist das unmöglich.

Dass Facebook Stimmungen beeinflussen kann, hat das Unternehmen in mehreren Tests bewiesen. 2010 wurde einigen Nutzern angezeigt, wenn andere Nutzer an Wahlen teilgenommen hatten. Das wiederrum animierte sie, selbst zu wählen.

Auf einen bestimmten Kandidaten abgestimmt waren die Tests nicht. Aber sie könnten es sein. Bemerken würde das wahrscheinlich niemand.

Red. /Infosperber

Diesen Beitrag hat Daniela Gschweng aufgrund von Berichten in der «New York Times» und des «Guardian» erstellt.