Eli Pariser beschreibt eindringlich die "Filter Bubble", weiß aber auch keinen Ausweg.
Seit einigen Wochen wird ein Video von Eli Parisers Auftritt bei den TED Talks auch im deutschsprachigen Feuilleton intensiv diskutiert. Darin gibt er eine Kurzzusammenfassung seines Buches „The Filter Bubble: What the Internet Is Hiding from You“ zum Besten. In eindringlichen Worten und mit viel Detailwissen beschreibt er die Auswirkungen der Personalisierung im Web, die der Werbewirtschaft maximale Zielgenauigkeit verspricht und den Anwendern kostenlose Services von höchster Qualität beschert. Auf den ersten Blick eine Win-win-Situation, auf den zweiten Blick birgt dies negative Konsequenzen für Gesellschaft und Demokratie in sich.
Algorithmen bestimmen unser Leben
Pariser beginnt seine Ausführungen mit der personalisierten Suche, die Google 2009 gestartet hat. Um dem Anspruch gerecht zu werden, den Anwendern die Ergebnisse zu präsentieren, die für sie am relevantesten sind, werden Suchergebnisse entsprechend zahlreicher userbezogener Parameter kategorisiert, priorisiert oder im schlimmsten Fall sogar weggefiltert. Das wird uns gar nicht bewusst, denn es passiert unbemerkt. Und dennoch: „The algorithms that orchestrate our ads are starting to orchestrate our lives.”
Aus Parisers Sicht ist das in dreierlei Hinsicht problematisch: Zum ersten ist man alleine in seiner Filter Bubble. Der Referenzrahmen, der durch persönliche Daten und die Clickhistorie definiert wird, ist höchst individualisiert. Der eigene Online-Erfahrungshorizont ist mit keinem anderen mehr vergleichbar. Zum anderen läuft das unbemerkt ab. Niemand kann nachvollziehen aufgrund welcher Aktivitäten und Parameter die Informationen auf eine bestimmte Art oder eben gar nicht angezeigt werden. Und drittens hat niemand bewusst zugestimmt, dass seine persönliche Filter Bubble erstellt wird. Das passiert en passant, weil man gute kostenlose Services nutzt.
Kreativität braucht Widerspruch
Pariser beschreibt anhand der Praktiken von Google, Facebook, Amazon et al., in welche Richtung diese Entwicklung gehen kann: Menschen, die sich zu Beginn ihres Online-Lebens auf bestimmte Themen, Inhalte oder Haltungen festlegen und dann ständig Material geliefert bekommen, das sie darin bestärkt. Eine vollkommen fragmentierte politische Kommunikation, in der wahlwerbende Parteien keine Gesamtprogramme mehr präsentieren, sondern nur mehr mundgerechte Informationshäppchen für verschiedenste Zielgruppen aufbereiten.
Die Einflüsse für die Entwicklung der eigenen Persönlichkeit werden kanalisiert: „You can get stuck in a static, ever narrowing version of yourself – an endless you-loop.” Fortschritt und Innovation fühlen sich anders an. Die bahnbrechendsten Ideen und die größten gesellschaftlichen Umwälzungen sind immer dort entstanden, wo Widersprüche und Konflikte spürbar waren. Wenn man sich aber nur mehr mit Freunden umgibt, die einem vorgeschlagen wurden, weil deren Interessen und Weltanschauungen kompatibel mit den eigenen sind, herrscht Stillstand.
„By definition, a world constructed from the familiar, is a world in which there’s nothing to learn.“ Mit wirklich Neuem wird man nicht mehr konfrontiert. Und was noch viel schwerer wiegt: Was zu komplex ist, um von Algorithmen erfasst zu werden, wird gar nicht mehr thematisiert. Konsequent zu Ende gedacht bedeutet das das Ende aller gesellschaftlichen Diskurse: „a public sphere sorted and manipulated by algorithms, fragmented by design, and hostile to dialoque.“
Was diese Analyse betrifft, ist Eli Parisers Buch wirklich lesenswert. Man merkt ihm an, dass der Autor ein kenntnisreicher Bewohner des Netzes ist, der die Denkwelt von Programmierern ebenso versteht wie die der blutjungen Manager, die in den Start-ups an den Schalthebeln sitzen. Sehr lesenswert ist auch seine Analyse der Strategie der chinesischen Regierung, die mehr und mehr dazu übergeht, die Aufmerksamkeit der Internet-Nutzer auf Inhalte zu lenken, die dem Regime konvenieren, anstatt brutal zu zensieren.
Wenn er allerdings im Fundus sozialwissenschaftlicher und psychologischer Forschung kramt, wird es manchmal etwas zu beliebig. (Milgrams Experimente etwa hätte er getrost aussparen können.) – Aber das Buch erhebt keinen wissenschaftlichen Anspruch und die paar missglückten Abstecher in die Wissenschaft schaden seiner Gesamtqualität nicht.
Keine Lösung in Sicht
Beim Aufzeigen möglicher Lösungsansätze tut sich Pariser schwer. Die Erkenntnis, zu welchen Konsequenzen die extreme Fortführung der Personalisierung führen kann, ist noch zu frisch, um schon einen Ausweg daraus aufzeigen zu können. An einer Stelle spricht er sich dafür aus, dass wir erkennen müssen, dass im Code von Software gesellschaftliche Werte stecken. Ich denke da an die vielen Debatten, die schon rund um Sprache und Herrschaft geführt wurden und trage meinen Optimismus sofort zu Grabe. Dann führt er zaghaft den Begriff einer „algorithmic literacy“ ein. Bis es dazu kommt, müssten jedoch viele andere Literacies ausgebildet werden. (Ich erinnere nur an Rang 15 von 16 den Österreichs Schülerinnen und Schüler beim PISA Lesetest für elektronische Medien erkämpft haben.)
Andere Möglichkeiten wären eine freiwillige Kennzeichnung personalisierter Inhalte, wie sie etwa das Interactive Advertising Bureau vorschlägt, oder die Einführung eines „Important buttons“ auf Facebook. Dem Vorschlag der U.S. Federal Trade Commission, eine „Do Not Track“ Liste einzuführen, erteilt Pariser gleich eine Abfuhr, weil das diejenigen, die sich auf selbige setzen lassen, recht bald von der Nutzung der kostenlosen Services ausschließen würde. Was er sich aber vorstellen kann, ist eine unabhängige Institution, die die Aktivitäten der Service-Anbieter laufend kritisch hinterfragt. Die größte Hoffnung setzt er jedoch in die User selbst. Je mehr Menschen sich kritisch mit diesen Entwicklungen auseinandersetzen, desto intensiver wird die Diskussion geführt. – Ein erster Schritt ist, dieses Buch aufmerksam zu lesen.
Über den Autor: Eli Pariser kommt aus der amerikanischen Bürgerrechtsbewegung und weiß als ehemaliger Executive Director und jetziger Board President von MoveOn.org (einer der größten Plattformen in diesem Bereich) wie Internet und Politik zusammenspielen können.
Die Website zum Buch:br />http://www.thefilterbubble.com
Das Video von Parisers Auftritt bei den TED Talks:
http://www.ted.com/talks/lang/eng/eli_pariser_beware_online_filter_bubbles.html
Bilder von: www.thefilterbubble.com
Randbemerkung: Ich habe dieses Buch auf Amazons Kindle gelesen. Auf dem wird auch angezeigt, wie viele Menschen bestimmte Textstellen markiert haben. Im vorderen Drittel des Buches sind Passagen zu finden, die 10 Mal und mehr markiert wurden. Im letzten Drittel war ich der einzige Highlighter. Möglicherweise hat das Internet auch Einfluss darauf, wie wir längere Texte lesen. Doch das ist eine andere Geschichte.