#MCB19: Ethik 2.0 – Digitalisierung ethisch gestalten
Die fortschreitende Digitalisierung hat fast alle Lebensbereiche erfasst. Robotik, die Steuerung des Verhaltens über Big-Data, Vernetzung, Mensch-Maschine-Interaktion und algorithmische Entscheidungssysteme finden bereits in den unterschiedlichsten Bereichen ihren Einsatz. Dabei betreffen sie, vor allem die durch Algorithmen gesteuerten Entscheidungen, häufig für uns Menschen entscheidende, wegweisende Kontexte: Von der Auswahl passender Arbeitnehmer, Kriminalitätsüberwachung, Jugendhilfe, Versicherungsschutz bis hin zu richterlichen und medizinischen Diagnose und Therapiemaßnahmen – der Einsatz Künstlicher Intelligenz kennt keine Grenzen. Wie genau solche digitalisierten Prozesse aber ablaufen, welche Folgen sie haben und ob sie überhaupt gut oder besser sind, als bisherige, menschlich gesteuerte Prozesse und Einschätzungen, ist noch unklar.
Digitalisierung braucht ethische Leitlinien
Dass der Einsatz von digitalen Technologien geprüft und verantwortliche Leitlinien entwickelt werden müssen, um unseren demokratischen, sozialen und ethischen Wertvorstellungen weiterhin Geltung zu verschaffen, scheint mittlerweile Konsens. So befasst sich etwa die Datenethikkommission der Bundesregierung mit zentralen datenethischen Fragen rund um den Einsatz von Daten, Algorithmen, Künstlicher Intelligenz und wird Ende Oktober 2019 erste Empfehlungen für ethische Leitlinien zum Schutz des Einzelnen, zur Wahrung des gesellschaftlichen Zusammenlebens und zur Sicherung und Förderung des Wohlstands im Informationszeitalter herausgeben. Auch verschiedene Wissenschaftler haben sich mit der Frage beschäftigt, was Digitalisierung mit uns als Gesellschaft macht und welche Ansätze es gibt, um ein werteorientiertes, ethisches Zusammenleben im Netz zu fördern.
Automated Decision Making: Right to reasonable inferences
Dr. Sandra Wachter etwa, Rechtswissenschaftlerin am Internet-Institut der Universität Oxford, u.a. forschend zum Bereich digitaler Ethik warnt, dass Menschen die Ableitungen nicht mehr im Griff haben, die Maschinen aufgrund der massenhaft gesammelten Daten über sie treffen (sog. Inferenzen). Unser Datenschutz- und Diskriminierungsrecht sei zwar gut, aber unter den heutigen Bedingungen nicht mehr ausreichend. Denn für Künstliche Intelligenz seien Datenkategorien, wie sensibel oder personenbezogen, irrelevant - sie würden diese Kategorien durch Umwandlung verschiedener Datensätze überwinden können. Zudem würden immer neue Kategorien erfunden, wie etwa bei Facebook „der traurige Teenager“, die unser klassischer Diskriminierungsschutz nicht erfasst. Ihr Plädoyer: Automatische Entscheidungsprozesse müssen nachvollziehbar sein, bei bedeutenden Fragen müsse man sich auch dagegen wehren können. Ein solches „right to reasonable inferences“ bedeutet danach nicht nur Transparenz, sondern Rechtfertigung: Sind die Entscheidungen gesellschaftlich akzeptabel und relevant hinsichtlich Datenquelle und Inferenz, ist die Methode zuverlässig? Es gilt also nicht nur, was technisch möglich, sondern auch, was ethisch und gesellschaftlich verantwortlich ist.
Moralischer Einsatz von Technologie
Ähnlich sieht das auch Prof. Dr. Sarah Spiekermann, Leiterin des Instituts für Wirtschaftsinformatik und Gesellschaft der Wirtschaftsuniversität Wien. Durch den unreflektierten Einsatz von Technologie, wie etwa bei selbstfahrenden Autos, und dem Verlass der Gesellschaft allein auf ein Unternehmen, beispielsweise Google, drohten neben einer gefährlichen Abhängigkeit auch gigantische soziale Umbrüche und Sicherheitsrisiken für unsere Gesellschaft. Laut Spiekermann müssten daher bereits beim Design dieser Technologien bestimmte philosophische Fragen beantwortet werden, um ihren Einsatz in unserem Sinne beherrschbar zu machen.
Die Frage wäre zunächst: Welche menschlichen, sozialen, ökonomischen oder sonstigen Werte sind im positiven und negativen wirklich betroffen (Utilitarismus)? Sodann, wie sich die Technik langfristig auf den Charakter der betroffenen Stakeholder auswirkt (Tugendethik). Und schließlich, welche persönliche Maxime Entscheidungsträger und Stakeholder durch den Service betroffen sehen, die sie für so wichtig halten, dass sie sie fördern bzw. bewahren möchten (Pflichtethik).
Es gibt keine perfekten Daten
Einig ist man sich aber auch in einem: Künstliche Intelligenz läuft nicht abgekoppelt von uns, sie ist ein Spiegel unserer Gesellschaft. Das, was wir in den Algorithmus eingeben, sind Daten, die bereits einem bestimmten „Bias“ unterliegen, die auch die Vorurteile, sozialen und gesellschaftlichen Probleme unserer Gesellschaft widerspiegeln. Es gibt keine perfekten Daten. Daher ist es wichtig, nicht nur die algorithmischen Entscheidungen immer besonders kritisch zu hinterfragen, sondern zudem die dahinterstehenden gesellschaftlichen Konflikte zu lösen.
Plattformen: Sozialen Umgang und Meinungsvielfalt fördern
Relevant sind in diesem Zusammenhang auch Fragen von Meinungsbildung und Meinungsvielfalt. Intermediäre nehmen eine bedeutende Rolle in der Kommunikation, Informations- und Wissensvermittlung ein. Sie haben damit auch entscheidenden Einfluss auf politische und gesellschaftliche Debatten, auf Meinungsbildung und demokratische Entscheidungsprozesse. Nach welchen Kriterien genau Inhalte gefiltert und sortiert werden, wer sie zu Gesicht bekommt und wer nicht – all das entscheiden algorithmische Entscheidungsprozesse der Plattformen. Hinzu kommt, dass auch die Interfaces, das Design und die Interaktionsmöglichkeiten der Nutzer auf den Plattformen Bedeutung gewinnt, etwa bei der Frage, wie Debatten online geführt werden, wie Hate Speech und Desinformation bekämpft werden können.
Brückenbau als Vorbild für humanistische Plattformen
Philosoph, Sozialwissenschaftler und Designer (u.a. Couchsurfing) Joe Edelman erläutert am Beispiel Brückenbau Grundsätze für das Design von Plattformen: Erst der Einsturz einer großen Brücke führte dazu, dass man die Methodik und Struktur überprüfte und in der Folge alle Brücken bestimmten vorgegebenen Standards genügen mussten. Dieser Ansatz könne auch auf das Design von Plattformen übertragen werden. Erfindungen, wie etwa der Like-Button, hatten ursprünglich eine gute Intention – führen aber in der Praxis zu schädlichen sozialen Nebeneffekten. Um also nachhaltige, humanistische Plattformen zu konstruieren und Probleme, wie Diskriminierung, Hate Speech, soziale Isolation und Polarisierung zu bekämpfen, müsse man bestimmte Strukturen überprüfen und Standards aufstellen. Wie beim Brückenbau.
Meinungsvielfalt by design?
Wie also können Plattformen so gestaltet werden, dass sie weiterhin den freien und vielfältigen demokratischen Austausch von Meinungen, Information und Wissen befördern? Dabei stellt sich insbesondere die Frage, ob bestimmte Interfaces, Voreinstellungen und Personalisierungen aufgrund von Datenanalysen dazu führen, dass bestimmte Personengruppen bestimmte Inhalte mehr bzw. weniger angezeigt bekommen als andere oder dass Inhalte aufgrund sachlich nicht gerechtfertigter Gründe bevorzugt/benachteiligt werden. Ähnliches gilt in Bezug auf politische Entscheidungsfindung, etwa im Zusammenhang mit Wahlwerbung: Auch hier muss eine Manipulation von Wahlentscheidungen - digital wie analog -verhindert werden, um freie Wahlen zu gewährleisten. Die von den Unternehmen angesetzten Kategorisierungen sowie eingesetzten algorithmischen Entscheidungsprozesse müssen daher unseren Anforderungen an Meinungsvielfalt genügen. Ansonsten bedarf es standardisierter Regeln, die diese Werte sicher gewährleisten.