Bomben und Monster

Er schlug ein wie eine Bombe, der Artikel über Cambridge Analytica des ‹Magazin›. Zum Schluss blieb nur ein Räuchlein. Zur Erinnerung: Im Artikel «Ich habe nur gezeigt, dass es die Bombe gibt» wird beschrieben, wie die Firma Cambridge Analytica mit einer Mischung aus Big Data und Psychologie Kampagnen gewinnt. Unter anderen habe sie Trump zum Präsidenten und England zum Brexit gebracht. Der Artikel wurde eifrig diskutiert – und sehr schnell auch kritisiert. Der Erfolg von Cambridge Analytica werde masslos übertrieben, was kein Wunder sei, da im Artikel nur der CEO der Firma und der Entwickler der Methode zu Wort kämen. Cambridge Analytica habe zudem nur eine untergeordnete Rolle bei diesen Kampagnen gespielt, und die Clinton-Kampagne hätte die gleichen Methoden angewendet.
Weil vieles in diesem Artikel leicht widerlegt werden kann, hat sich die Debatte ziemlich schnell erledigt. Doch auch wo bloss ein Räuchlein ist, ist vielleicht ein Feuer. Denn Big Data hat tatsächlich Folgen für die Gesellschaft und damit auch für die Demokratie. Und nicht nur gute. Mindestens findet dies Tech-Unternehmer Maciej Ceglowski. Ceglowski hielt kürzlich dazu einen Vortrag mit dem Titel «Build a better Monster: Morality, Machine Learning and Mass Surveillance» (Ein besseres Monster schaffen: Moral, maschinelles Lernen und Massenüberwachung).
Im Nachgang zu den US-Wahlen sei – so Ceglowski – ein wenig Unbehagen aufgekommen in der Branche. Viel wurde über Fake-News gesprochen, über Filterblasen und Polarisierung. Man will grundsätzlich verstehen und etwas tun. Facebook kündigte an, gegen Fake-News vorzugehen, und CEO Mark Zuckerberg reist im Moment durch das Land und spricht mit Trump-Wählern, immer schön medial begleitet.
Das Problem aber sei fundamentaler. Die Tech-Industrie habe in den letzten Jahren ein Monster geschaffen: Instrumente der sozialen Kontrolle und der Massenüberwachung. Und nebenbei habe man auch einige Institutionen beschädigt und teilweise sogar zerstört. Zum Beispiel den Journalismus.
Das klingt natürlich ein wenig paranoid. «Nur weil man paranoid ist, heisst das nicht, dass sie nicht hinter dir her sind», hiess es schon im Film ‹Catch 22›. In den letzten Jahren wurde viel über die Gefahr von staatlicher Überwachung gesprochen. Kaum Thema ist aber die Überwachung seitens der Privaten.
Die Überwachung und das Sammeln von Daten aber, so Ceglowski, sei die wirtschaftliche Grundlage des Internets. Jede Interaktion im Netz hinterlässt eine Spur. Und von der Verwertung dieser Spuren lebt eine ganze Industrie. Smartphones zeichnen auf, wo sich deren Besitzer aufhalten. Google weiss, was wir suchen, Facebook weiss, was wir mögen. Diese Daten werden gesammelt, gespeichert und verkauft. Diese Daten sind das neue Öl, und Facebook und Google die grössten Ölscheiche.
Die Daten werden gebraucht, um Werbung zu verkaufen und die Algorithmen zu verbessern, damit man noch besser Werbung verkaufen kann. Mit immer mehr Daten sollen auch Maschinen mehr lernen und klüger werden. Algorithmen sind allerdings nicht Menschen, sie sind Produkte linearer Algebra, wie die Techniksoziologin Zeynep Tufekci ausführt: Sie haben weder Empathie oder Moral. Sie funktionieren aber auch schlicht anders, machen andere Fehler, haben Mühe mit dem Erlernen gewisser Dinge. Darum ist es für Menschen nicht immer nachvollziehbar, wenn sie Fehler begehen. Beides kann problematisch werden.
Was heisst das jetzt für die Demokratie? Die Algorithmen unterscheiden nicht zwischen Politik und Kommerz: Sie tun in beiden Fällen das gleiche. Sie messen, wie viel Zeit jemand auf einer Seite verbringt, wievielmal eine Seite geteilt wird, wie viel Likes eine Meldung erhält. Und das Ziel des Systems ist, genau diese Interaktion zu steigern. Das Problem: Politisch Interessierte reagieren offenbar auf Provokation. Und wollen die Dosis immer mehr steigern.
Das zweite Problem: Was einst privat war, wird immer mehr politisch. Aber nicht im feministischen Sinn. Gespräche, Diskussionen, Vorlieben sind nicht nur mindestens teilweise öffentlich – sie bleiben auf immer bestehen. Wenn ich beispielsweise auf Facebook angegeben habe, dass ich am Womens March teilnehmen werde, weiss dies Facebook auf alle Ewigkeit. Google Maps zeichnet all meine Standorte für alle Zeiten auf. Im richtigen Leben vergessen wir sehr vieles sehr schnell wieder, was uns ermöglicht, auch mal Fehler zu machen. Erschwerend dazu kommt, wenn private E-Mails (auch von subalternen Mitarbeitenden) in einer Kampagne gehackt und öffentlich gemacht werden, wie dies im US-Wahlkampf geschehen ist.
Das dritte Problem: Der personalisierte und auf mich zugeschnittene Ausschnitt der Welt, die ich in meinem Facebook-Feed und immer mehr in meinem Medienkonsum habe, ist ganz anders als der von jedem anderen. Der öffentliche Raum verschwindet: Wie können also politische Diskussionen überhaupt noch öffentlich geführt werden?
Was also tun? Ceglowski schlägt unter anderem vor, dass es nicht nur ein Recht auf Vergessen – wie es von DatenschützerInnen schon seit längerem gefordert wird – geben soll, sondern auch eine Pflicht. Würden Daten von Facebook-Events und Google-Maps periodisch gelöscht, entspräche dies mehr dem normalen Leben, wo man eben auch mal vergisst, was man mal gemacht hat. Die Sicherheit und Privatsphäre könnten massiv verbessert und einfacher gemacht werden. Oft wird gesagt, die Nutzung sei ja schliesslich freiwillig. Doch Facebook und Google machen es den BenutzerInnen aufgrund ihrer Quasi-Monopolstellung schwer, sich ihnen grundsätzlich zu entziehen. Als weiteres schlägt Ceglowski vor, dass die Tech-Branche mehr gesellschaftliche Verantwortung übernehme. Zum Beispiel, in dem sie Steuern zahlt (was vielen dieser Tech-Firmen äusserst schwer fällt). Und dass sich die Branche auch einen ethischen Codex – ähnlich wie der hippokratische Eid bei den ÄrztInnen – gibt.
Das neue Datenschutzgesetz (siehe Seite 4) will die Kontrolle über die eigenen Daten verbessern. Das ist wichtig, reicht aber nicht aus. In der Pflicht steht auch die Branche, die sich ihrer gesellschaftlichen Verantwortung bewusster werden sollte. «Sorry für die Atombombe», schrieb ein Wissenschaftler am Science March selbstironisch auf sein Transparent am Science March. Mal hoffen, dass die Big Data-Bombe noch rechtzeitig entschärft wird.
Min Li Marti

nach oben »»»