Es ist eine Themenkombination, die für viele Menschen wohl nicht zwangsläufig zusammengeht. Für Carla Hustedt ist sie nur logisch. Wie Ethik und Algorithmen miteinander agieren, damit beschäftigt die 29-Jährige sich schon seit vielen Jahren. Sie sagt, ihr „Herzensthema“ sei „die Schnittstelle zwischen Digitalisierung und Fragen von Chancengerechtigkeit, Demokratie und Zusammenhalt“. Berührungsängste mit der digitalen Welt habe sie nie gehabt, erzählt Carla: „Im Grunde sind die Menschen aus meiner Generation ja damit aufgewachsen. Bei mir war es nochmal spezieller: Als ich klein war, hatte mein Vater einen Laptop-Laden, deshalb habe ich meinen ersten Computer mit sechs Jahren bekommen. Mein erster Job war es, Disketten zu formatieren.“
Das macht sie heute nicht mehr. Als frischgebackene Leiterin des Bereichs „Digitalisierte Gesellschaft“ bei der Stiftung Mercator ist es ihr Ziel, dass digitale Technologien in Deutschland und Europa im Einklang mit demokratischen Rechten und Werten weiterentwickelt und genutzt werden. Zuvor trieb Carla das Thema im Auftrag der Bertelsmann-Stiftung voran: Dort leitete sie bis vor wenigen Monaten das Projekt „Ethik der Algorithmen“.
Carla kennt die großen Erwartungen, die viele Menschen mit dem Begriff der Digitalisierung verbinden. Manchen gilt sie als das große Heilsversprechen für Teilhabe und Digitalisierung, andere sind deutlich ernüchterter und formulieren, letztlich sei sie nur der Verstärker für Dinge, die ohnehin schon da sind. Und Carla? „Ich glaube, dass Technologie grundsätzlich gut oder schlecht genutzt werden kann. Technologie ist nicht per se das Eine oder das Andere. Ob sie bestehende Strukturen verstärkt, hat etwas damit zu tun, wie wir den Umgang mit der Digitalisierung gestalten.“
Sie habe in der Vergangenheit eindrucksvoll gesehen, wie Digitalisierung Menschen zusammenbringen könne: „Nehmen wir zum Beispiel ein junges Mädchen in einem Dorf in Brandenburg. Sie realisiert, dass sie lesbisch und damit die Einzige in ihrem Dorf ist. Sie bekommt durch die Digitalisierung die Möglichkeit zu entdecken, dass sie nicht allein ist, das ist großartig.“ Genauso aber bestehe die Gefahr, dass ein Mensch, „der an der Kippe zum Abdriften in Verschwörungstheorien ist, so andere findet, die sich auch gerade damit beschäftigen. Dann hat das eine verstärkende Wirkung.“
Wollen wir den Blick in die Zukunft?
Es sei die gleiche Eigenschaft der Technologie, die zu unterschiedlichen Dingen führen könne. Ein anderes Beispiel dafür sei die Möglichkeit, mit Hilfe von sogenannter künstlicher Intelligenz in die Zukunft zu schauen. „Das kann positiv sein, weil es uns helfen kann, Pandemien vorherzusagen oder auf Klimaentwicklungen zu reagieren. Es kann aber auch genutzt werden, um Menschen zu manipulieren oder unser solidarisches Gesundheitssystem auszuhebeln, indem wir die Gesundheitsgeschichte von Menschen vorhersagen und diese Krankenkassen zur Verfügung stellen, mit negativen Auswirkungen für Vorerkrankte.“
Genau deshalb sei die Art und Weise, wie wir die Digitalisierung gestalten, so essentiell. „Wir entscheiden darüber, wie und wo die Tools genutzt werden, für welche Probleme Lösungen entwickelt werden und wie die Lösung am Ende aussieht: Das ist es, was wir demokratisieren müssen. Im Moment ist das aber nicht der Fall. “Im Gegenteil: Es gebe eine „krasse Machtkonzentration, bei den Entscheidungen darüber, wie dir Digitalisierung nutzen“. Das liege zum einen an so genannten Netzwerkeffekten, die beschreiben, dass Menschen eben die Plattformen nutzen, auf denen bereits viele andere Menschen unterwegs sind, so dass alternative Angebote sich schwer durchsetzen können. So komme es, etwa bei der Nutzung von Messengerdiensten, zu Herdeneffekten.
Zum anderen sei die bisherige Sammlung und Auswertung von Daten ein Problem: „Die Daten, die generiert werden, wenn wir uns im Netz bewegen, liegen in den Händen von wenigen großen Konzernen wie Google und Facebook. Die haben früh eine Infrastruktur aufgebaut, die das Netz jetzt stark durchzieht.“ Vielen Nutzer:innen sei das bei der Internetsuche überhaupt nicht bewusst, weil das Thema viel weniger Aufmerksamkeit auf sich ziehe als etwa die sozialen Netzwerke. „Aber eigentlich ist das der am stärksten monopolisierte Markt. In Europa finden über 90 Prozent der Suchmaschinenanfragen nur über Google statt. Die haben dementsprechend viele Informationen über unser Onlinesuchverhalten und durch Verbindungen mit anderen Websites auch über die Art, wie wir uns im Internet bewegen. Und im Digitalen sind Informationen mehr denn je auch gleich Macht.“
Der dritte Punkt seien die Kompetenzen, die sich große Tech-Konzerne aufgrund ihrer finanziellen Macht sehr viel einfacher einkaufen könnten als die Zivilgesellschaft – auch so entstehe ein deutliches Ungleichgewicht zu Gunsten der Konzerne.
Wissenslücken in der Politik
Zusätzlich zu all dem nimmt Carla ein weiteres Problem wahr: dass nämlich unsere Kompetenzen in Sachen Digitalisierung allzu häufig viel geringer seien, als uns selbst bewusst ist. „Wir müssen als Gesellschaft ein Bewusstsein dafür entwickeln, dass wir bereits in vielen Bereichen durch algorithmische Entscheidungen beeinflusst werden, auch in sozialen Medien. Die meisten Deutschen wissen gar nicht, dass auch die Ergebnisse bei Google und die Beiträge bei Facebook algorithmisch sortiert sind und dass das nicht deskriptiv ist. Dahinter stecken Wertentscheidungen darüber, was als relevante Nachricht gilt und was nicht.“ Das Bewusstsein dafür müsse gestärkt werde.
Dennoch, sagt Carla, werde sie „hellhörig bei der Forderung nach mehr Nutzer:innenkompetenz: Ich glaube, wir müssen aufpassen, dass die Verantwortung nicht zu sehr auf das Individuum abgeschoben wird.“ Sie sehe „die wirklich große Wissenslücke“ eher bei „den Akteuren, die die Weichen für gesellschaftliche Entwicklungen stellen“. Grundsätzlich seien wir als Gesellschaft noch gar nicht in der Lage zu erfassen, „wie wir uns durch das Digitale verändern“. Darüber brauche es viel, viel mehr Diskussion: „Wenn wir zum Beispiel zukünftig Krankheitsverläufe immer präziser berechnen können, oder sogar vorhersagen, wann Menschen sterben, dann muss überlegt werden, ob und wie wir dieses Wissen nutzen und welche Entscheidung dann getroffen werden dürfen anhand dieses Wissens.“ Es gebe Systeme, die schon bei Kindern prognostizierten, wie hoch ihr Risiko sei, später straffällig zu werden. „Das ist eine Information, bei der man sich fragen muss, ob man es ethisch vertretbar findet, wenn sie berechnet und genutzt wird.“
Denn die Effekte seien schlicht nicht absehbar: Die Berechnung wird in der Hoffnung getätigt, präventiv einzugreifen und die richtige Unterstützung zu generieren, um Straffälligkeit zu vermeiden. Es sei aber ebenso denkbar, dass so eine Vorverurteilung entstehe, die letztlich eine selbstverstärkende Wirkung habe und dass diskriminierende Strukturen reproduziert werden. „Es ist einfach extrem fallabhängig, was als richtig und falsch gilt.“ Deshalb sei es wichtig, darüber in Aushandlungsprozesse zu kommen. „Was wir aber im Moment sehen, ist, dass Software eingekauft wird und die Akteur:innen, die die ethische Diskussion führen sollten, die Software gar nicht verstehen.“ Die Diskussion finde nicht statt, weil die Systeme intransparent seien und es ein weit verbreitetes Verständnis gebe, dass eine Software eingekauft werden kann und sich ein komplexes soziales Problem damit quasi von selbst löst. „Eigentlich müssen wir aber verstehen, dass die größte Arbeit nicht in die Technikentwicklung, sondern in die inklusive Aushandlung der Wertefragen fließen müsste. Im Endeffekt brauchen wir eine Fall-zu-Fall-Diskussion darüber, was ethisch ist und was nicht.“
Carla beschreibt dafür ein Beispiel: So habe sich der österreichische Arbeitsmarktservice dazu entschlossen, ein algorithmisches System zu nutzen, um Arbeitslose anhand ihrer Wahrscheinlichkeit, wieder in den Arbeitsmarkt integriert werden zu können, in verschiedene Kategorien einzuteilen. Das System kalkuliert, wie wahrscheinlich es ist, dass eine Person wieder Arbeit findet und unterscheidet drei Gruppen. Das habe viel Unmut, aber auch wichtige Diskussionen ausgelöst: etwa darüber, dass der Aspekt Geschlecht eine Rolle gespielt habe, weil Frauen im Durchschnitt als weniger gut in den Arbeitsmarkt integrierbar bewertet wurden. „Das hängt mit einer bestehenden Diskriminierung zusammen. Frauen haben nach der Elternzeit Schwierigkeiten, wieder in den Arbeitsmarkt reinzukommen. Das hat nichts mit den Frauen zu tun, sondern mit dem diskriminierenden System.“
Zivilgesellschaft und Wissenschaft hätten das Vorgehen scharf kritisiert. „Aber der Arbeitsmarktservice hat argumentiert, dass diese Informationen genutzt würden, um Diskriminierung auszugleichen, indem Frauen die meiste Unterstützung in Form von Weiterbildung und Unterstützungsmaßnahmen bekommen würden.“ Eine finale Evaluation steht noch aus, aber immerhin habe es dazu einen offenen Dialog zwischen Wissenschaft, Zivilgesellschaft und Politik gegeben.
Gerade bei staatlichen Systemen muss offengelegt werden, warum das System genutzt werden soll. Geht es darum Diskriminierung auszugleichen oder Gelder einzusparen – und stehen die Ziele im Konflikt miteinander?
Es braucht Austausch
Carla will diese Diskussionen vorantreiben. Die Stiftung Mercator versuche zu identifizieren, welche wissenschaftlichen und zivilgesellschaftliche Organisationen an Lösungen für die digitalen Herausforderungen arbeiten – und diese zusammenzubringen. „Aktuell gibt es viel zu wenig Austausch, obwohl Digitalisierung Interdisziplinarität verlangt. Es ist ganz klar, dass es nicht die eine Silver Bullet gibt, sondern wir brauchen ein Zusammenwirken von Wissenschaft, die die Thematik untersucht und verständlich macht, von Zivilgesellschaft, die eine Wächterfunktion einnimmt, von Wirtschaft, die ihre Prozesse selbstverantwortlich verändert und versucht, sich diverser aufzustellen.“
Carla formuliert für sich ein klares Ziel: „Ich wünsche mir, dass wir es schaffen, ein gemeinwohlorientiertes digitales Ökosystem zu kreieren. Wir brauchen neue Infrastrukturen, die uns reaktionsfähiger machen und gemeinwohl- und demokratieorientierte Akteure stärkt. Wir brauchen viel mehr Forschung, die versucht, die Unwissenheit darüber auszugleichen, wie die Digitalisierung unsere Gesellschaft verändert.“ Dieses Wissen müsse den relevanten Akteur:innen stärker vermittelt werden, „ich habe das Gefühl, dass das noch nicht genug zur Politik durchdringt“.
Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung-Nicht kommerziell 4.0 International Lizenz.