Das Dilemma zwischen Forscher*in und Privatperson ist jedem bekannt. Als Privatpersonen möchten wir möglichst wenig digitale Spuren hinterlassen. Aber als Forscherin schätze ich es, digitale Spuren für wissenschaftliche Analysen verwenden zu können. Dieses Dilemma erkannte auch der gewissenhafte Forscher Kosinski: «However, knowledge of people’s personalities can also be used to manipulate and influence them.» (Michal Kosinski, 2014). Angewandt wurde seine Forschung von Cambridge Analytica hingegen eher weniger gewissenhaft. Welcher Weg führt uns aus dem Dilemma?
Im Jahr 2012 kam der damals 30-jährige Warschauer Doktorand Michal Kosinski zu einem selbst für ihn erstaunlichen Ergebnis: Mit durchschnittlich 68 Facebook-Likes kann er Hautfarbe, sexuelle Orientierung und politische Gesinnung vorhersagen. Mittlerweile geht seine Forschung weit über das Sammeln und Analysieren von Facebook-Likes hinaus. Mithilfe neuester technischen Verfahren des Deep Learnings zeigt er, dass Persönlichkeitsmerkmale auch aus Porträtsfotos abgeleitet werden können.
Kosinski erfragte stets die Berechtigung für die Verwendung der Daten bei den Nutzer*innen. Sein Dissertationsprüfer Aleksandr Kogan – der später die Daten an das zwielichtige Unternehmen Cambridge Analytica verkaufte –bediente sich hingegen Kosinski’s Methode und entwickelte eine ähnliche App, welche die Facebook-Connect-Funktion nutzte. Damit erhielt er nicht nur Zugang zu den Daten der Nutzer*innen, sondern auch zu detaillierten Daten ihrer Freunde – ohne deren Einwilligung. Allerdings war dies aufgrund der entsprechenden API von Facebook, die diesbezüglich bis Ende April 2015 keine Einschränkungen machte, auch möglich.
Datenhungrige Forscherin vs. diskrete Privatperson
Als Forscherin verstehe ich Kogan’s Verhalten. Der Reiz von einer umfangreichen Datenmenge – wie sie aus den sozialen Medien abgreifbar wäre – ist für Forschende gross. Die Analyse solcher Daten kann einen Mehrwert für die Gesellschaft liefern; beispielsweise könnten Missbräuche an Kindern frühzeitig aufgedeckt oder einen Selbstmord verhindert werden.
«Wir dürfen solche Daten nicht nutzen, um Leben zu retten. Aber Facebook und Google dürfen die Daten nutzen, um uns allen möglichen Mist zu verkaufen.» (Michal Kosinski, November 2019, NZZ)
Als Privatperson möchte ich natürlich Apriori keine Daten öffentlich zugänglich machen. Ich alleine möchte Hoheit über meine Daten haben. Und zum heuten Zeitpunkt kann ich nicht unterscheiden, ob jetzt dank meiner Daten Leben gerettet werden oder diese nur verwendet werden, um mir das fünfte paar On-Schuhe verkaufen zu wollen.
Die Digitalisierung rennt der Ethik davon – wie kann die Ethik das Rennen noch gewinnen?
Wie sich bereits beim Fall von Cambridge Analytica zeigte, werden ethische Konsequenzen einer (digitalen) Entdeckung (in diesem Fall jene von Kinski) erst später sichtbar. Die Ethik vermag der Geschwindigkeit, mit welcher die Digitalisierung voranschreitet, nicht mithalten.
«Die Digitalisierung erreicht alle Lebensbereiche der Gesellschaft und Wirtschaft – weitgehend ohne grundlegende ethische Überlegungen und ohne ganzheitliche politische Regulierungen». (Ladan Pooyan-Weihs im Interview über künstliche Intelligenz)
Damit in Zukunft die Daten von Privatpersonen – ob aus den sozialen Medien oder anderen Quellen – für Forschungszwecke verwendet werden können, braucht es aus meiner Sicht Bestrebungen von verschiedenen Seiten:
- Datenhoheit ist bei den Nutzer*innen; ich entscheide wem in welchem Umfang die Daten zur Verfügung stellen will.
- Regulatorische Rahmenbedingungen zum Schutz der Privatsphäre und der Verwendung von persönlichen Daten
- Verpflichtung der Forscher*innen oder Entwickler*innen die Daten im Sinne der Wissenschaft sowie zum Schutz und Weiterentwicklung der Menschheit zu verwenden
Obschon es bereits Bestrebungen in diese Richtung gibt wie die Anpassung der Privatsphäre-Einstellungen auf Facebook, die bessere Überwachung von API-Schnittstellen, den Holberton-Turing-Eid oder Data for Good ist es noch ein weiter Weg. So zielt beispielsweise der Holberton-Turing-Eid darauf ab, gemeinsame Werte von Forscher*innen der Künstlicher Intelligenz zu entwicklen, ihre Integrität zu versichern und sie in die Pflicht zu nehmen jede Bedrohung für irgendein Lebewesen zu vermeiden. Auch die Data for Good-Bewegung führt in diese Richtung. Ihre Mission ist es Daten für soziale Zwecke zu nutzen, um zur Lösung von humanitären Problemen beizutragen (z.B. Umwelt, Armut). SAS – Marktführer für Analytics und Software für Künstliche Intelligenz – hat sich dieser Bewegung bereits angeschlossen. Schliesslich hat die EU-Kommission erst kürzlich angekündigt, mit einem Gesetzespaket (Digital Services Act und Digital Markets Act) mehr Fairness und Transparenz für Nutzer*innen in die digitale Welt zu bringen. Es dürfte jedoch noch ein paar Jahre dauern bis der Gesetzesvorschlag effektiv verankert wird. Und die Digitalisierung wird in der Zwischenzeit nicht still stehen, sondern sich im gleichen oder gar schnelleren Tempo weiterentwickeln.
Bis dahin gilt für mich als Forscherin sensible Daten als solche zu behandeln. Bei der Beschaffung und Verwendung versuche ich stets zu hinterfragen, ob ich als Privatperson damit einverstanden wäre. Als Privatperson will ich künftig besser darauf achten, welche Informationen von mir wem und wo zugänglich sind. Und zu guter Letzt muss ich mir immer bewusst sein, wie mein Verhalten durch die Sichtbarkeit meiner Daten von Dritten beeinflusst werden könnte.
Weiterführende Links:
https://www.michalkosinski.com/home
https://www.tagesanzeiger.ch/ausland/europa/diese-firma-weiss-was-sie-denken/story/17474918