mabb unten  links zettel
mabb oben  rechts bleistift

#MCB19: Den demokratischen Diskurs im Digitalen schützen

Die fortschreitende Digitalisierung hat fast alle Lebensbereiche erfasst. Dabei betreffen die durch Algorithmen gesteuerten Entscheidungen für uns Menschen entscheidende, wegweisende Kontexte: Von der Auswahl passender Arbeitnehmer, Kriminalitätsüberwachung, Jugendhilfe, Versicherungsschutz bis hin zu richterlichen und medizinischen Diagnose und Therapiemaßnahmen – der Einsatz Künstlicher Intelligenz kennt keine Grenzen. In den Panels auf der MCB diskutierten Expertinnen und Experten aus Politik, Wissenschaft und Zivilgesellschaft über ethische und regulatorische Aspekte der Digitalisierung, welche die Grundwerte unserer Gesellschaft berühren.

Ethik 2.0 – Digitalisierung ethisch gestalten

Digitale Ethik heißt dabei der Rahmen, der uns hilft, Fehlentwicklungen zu analysieren, zu identifizieren und zu begegnen. Dass der Einsatz von digitalen Technologien geprüft und verantwortliche Leitlinien entwickelt werden müssen, um unseren demokratischen, sozialen und ethischen Wertvorstellungen Geltung zu verschaffen, scheint mittlerweile Konsens.
Dr. Sandra Wachter, Rechtswissenschaftlerin am Internet-Institut der Universität Oxford, warnt, dass Menschen die Ableitungen nicht mehr im Griff haben, die Maschinen aufgrund der massenhaft gesammelten Daten über sie treffen (sog. Inferenzen). Unser Datenschutz- und Diskriminierungsrecht sei zwar gut, aber unter den heutigen Bedingungen nicht mehr ausreichend. Denn für Künstliche Intelligenz seien Datenkategorien, wie sensibel oder personenbezogen, irrelevant - sie würden diese Kategorien durch Umwandlung verschiedener Datensätze überwinden können. Ihr Plädoyer: Automatische Entscheidungsprozesse müssen nachvollziehbar sein, bei bedeutenden Fragen müsse man sich auch dagegen wehren können. Es gilt also nicht nur, was technisch möglich, sondern auch, was ethisch und gesellschaftlich verantwortlich ist.

Ähnlich sieht das auch Prof. Dr. Sarah Spiekermann, Leiterin des Instituts für Wirtschaftsinformatik und Gesellschaft der Wirtschaftsuniversität Wien. Durch den unreflektierten Einsatz von Technologie, wie etwa bei selbstfahrenden Autos, und dem Verlass der Gesellschaft allein auf ein Unternehmen, beispielsweise Google, drohten neben einer gefährlichen Abhängigkeit auch gigantische soziale Umbrüche und Sicherheitsrisiken für unsere Gesellschaft. Laut Spiekermann müssten daher bereits beim Design dieser Technologien bestimmte philosophische Fragen beantwortet werden, um ihren Einsatz in unserem Sinne beherrschbar zu machen.

Hier geht es zur Aufzeichnung.

Medien, Manipulation & Microtargeting

Relevant sind in diesem Zusammenhang auch Fragen von Meinungsbildung und Meinungsvielfalt. Intermediäre nehmen eine bedeutende Rolle in der Kommunikation, Informations- und Wissensvermittlung ein. Sie haben damit auch entscheidenden Einfluss auf politische und gesellschaftliche Debatten, auf Meinungsbildung und demokratische Entscheidungsprozesse. Die wichtigste Währung der sozialen Medien heißt dabei Personalisierung, die nicht nur das Anzeigen bestimmter Inhalte nach vermuteter Relevanz für die Nutzer umfasst, sondern auch die Möglichkeit, personalisierte Werbung zu schalten. Ob über Googles und YouTubes Suchergebnisse oder Facebooks Newsfeed – die digitalen Angebote sind für Werbetreibende im Vergleich zu analogen Medien, wie Rundfunk und Presse, geradezu ein Paradies. Diese Möglichkeiten haben auch die politischen Akteure erkannt, so dass politische Onlinewerbung auch in Deutschland mittlerweile zum festen Bestandteil der politischen Kommunikation der Parteien geworden ist.

Prof. Dr. Simon Hegelich, Professor für Political Data Science an der TU München, schilderte, wie Menschen mithilfe von Microtargeting politische Botschaften angezeigt bekommen könnten, um ihre Wahlentscheidung zu beeinflussen. Die Verfügbarkeit von Unmengen von Daten über einzelne User und psychometrische Verknüpfungen macht eine passgenaue politische Ansprache möglich. Das kann bei demokratischen Wahlen das Zünglein an der Waage sein.

Prof. Hegelich konnte erste Erkenntnisse einer Studie zu politischer Werbung bei Facebook – beauftragt durch Medienanstalt Berlin-Brandenburg, Landesanstalt für Medien NRW, Bayerische Landeszentrale für neue Medien und Landeszentrale für Medien und Kommunikation Rheinland-Pfalz – präsentieren. Bezahlte politische Werbung sei vor allem im Vergleich zu den USA noch eher weniger erfolgt. Auch für das gezielte Microtargeting gäbe es bislang noch nicht ausreichend Hinweise. So gäbe es zwar Targeting, dies fände aber eher in großen demographischen Kategorien, wie Geschlecht und Alter, statt. Allerdings bemängelte Hegelich die Intransparenz der Methodik von Facebook. So sei überhaupt nicht klar, wie und nach welchen Kriterien politische Werbung identifiziert werde.

Für Rundfunk und Presse bis hin zu Post und Wahlplakaten im öffentlichen Raum ist heute bis ins Detail reguliert, wer, wann, wo und wieviel Wahlwerbung schalten darf. Doch im Digitalen klafft eine bemerkenswerte Regulierungslücke. Hier besteht weiterhin gesetzlicher Handlungsbedarf.

Die Aufzeichnung des Panels sind hier abrufbar.

Viel Hetze – aber wenig Hetzer: So verbessern wir das Netz

Neben bezahlter politischer Manipulation lauern weitere Gefahren für den demokratischen Diskurs im Digitalen. Üble Beleidigungen, rassistische und diskriminierende Kommentare, falsche Behauptungen und Hetze: Das Internet scheint längst nicht mehr der offene Raum zu sein, der alle auf freundschaftlich-konstruktive Art verbindet und Wissen für alle zugänglich macht. Wer sich aber mit der Thematik näher auseinandersetzt, schöpft auch Hoffnung. Das war ein Ergebnis bei der MEDIA CONVENTION 2019 in Berlin.

Trotz aller Diskussionen um Fake News oder vielleicht auch gerade deswegen: In Deutschland sei das Vertrauen in Nachrichten und Journalisten höher als das in Suchmaschinen und Social Media, sagt Alexandra Borchardt, Director of Leadership Programmes beim Reuters Institute in Oxford. Außerdem spiele die redaktionseigene Kommunikationskultur eine wesentliche Rolle. Auf Edition F, einem Online Magazin, gibt es keine Hasskommentare: „Wir kommunizieren auf Augenhöhe mit den Nutzerinnen und Nutzern, und wir binden sie regelmäßig in unsere Arbeit ein. Der Dialog ist wichtig“, sagt Teresa Bücker, Chefredakteurin von Edition F. Denn so vermeide man auch Hasskommentare. Markus Heidmeier, Co-Gründer und -Geschäftsführer der Medienproduktionsfirma Kooperative Berlin, hält es genau darum für falsch, die Kommentarfunktionen einfach abzuschalten, das habe mit Wertschätzung des Publikums nichts zu tun, sagt er. Sein Rat: Als Medienhaus ins Community Management investieren – man braucht dort ausreichend und vor allem auch resiliente Mitarbeiter, um die Kommentare zu moderieren. Das sei alleine deswegen wichtig, weil die Zeit vorbei sei, in der Medienhäuser nur senden.

Zusätzlich brauche es allerdings eine Regulierung aus der Politik, so Alexandra Borchardt. „Wo keine Regeln sind, herrscht Anarchie“, sagt sie. Darum sind politische Lösungen wie das Netzwerkdurchsetzungsgesetz nur eine logische Konsequenz für das Internet. Das NetzDG, wie es kurz genannt wird, soll vor Hasskriminalität in sozialen Netzwerken schützen. Trotz Meinungsfreiheit darf man eben andere Mitglieder der Gesellschaft nicht ungestraft beleidigen oder bedrohen.

Regulierung ist auch Symptombekämpfung: „Gelöschte Hasskommentare oder geblockte User verschwinden vielleicht für einen Moment“, sagt Teresa Bücker. „Aber die Person, die das geschrieben hat, denkt das noch immer und legt sich im Zweifel einen zweiten Account an.“ Darum müsse man eine gesellschaftliche Debatte führen und sich fragen, woher der Hass eigentlich kommt, und warum er sich auf manche Themen so massiv entlädt. Und bei diesem Punkt kann jeder bei sich selbst ansetzen.

Die Aufzeichnung des Panels sind hier abrufbar.

zurück zur Übersicht