mabb oben  rechts bleistift
mabb unten  links zettel

(Des-)Information auf Empfehlung?

Welche Rolle spielen YouTubes Empfehlungsalgorithmen bei der Verbreitung von Falschinformationen? Diese Frage hat seit Beginn der Covid-19-Pandemie und dem damit einhergehenden Erstarken von Stimmen, die die Pandemie leugnen und die Maßnahmen dagegen angreifen, eine neue Relevanz erhalten. Bei anderen wissenschaftlichen Krisenthemen gibt es Hinweise, dass Verschwörungstheorien und wissenschaftsskeptische Stimmen den Nutzenden vielfach auf YouTube empfohlen wurden. So zeigte beispielsweise eine Studie der Organisation Avaaz (2019) auf, dass Falschinformationen zum Klimawandel aktiv über Empfehlungen verbreitet wurden.1 

Wie war das in der Covid-19-Pandemie – vor allem angesichts der selbst erklärten Ziele der Plattform?2 Das Recherchenetzwerk Correctiv stellte im Frühjahr 2020 fest, dass Corona-Desinformation auf YouTube millionenfach angeklickt wurde.3 Die Reichweite der wenigen, aber sehr erfolgreichen desinformativen Videos stellt ein gesellschaftliches Problem dar. Ob jedoch die Empfehlungsalgorithmen die Verbreitung verantworten, ist unklar. Oft werden Nutzende aus anderen Plattformen und Messenger-Diensten wie WhatsApp und Telegram per Link auf YouTube weitergeleitet.4  

Keine Desinformation, aber auch keine Informationsvielfalt

Wie sah es bei deutschsprachigen YouTube-Inhalten im Krisenjahr 2020 aus? Eine neue Studie im Auftrag der Landesmedienanstalten Berlin-Brandenburg, Bayern, Nordrhein-Westfalen und Rheinland-Pfalz sowie der Berliner Senatskanzlei zeigt: Falschinformation wird nicht hauptsächlich durch Empfehlungen verbreitet, auch wenn diese dort eingeschränkt sichtbar gemacht wird. So waren nur sechs Prozent der über acht Tausend untersuchten Videos potenziell desinformativ – bei einem Drittel potentiell desinformativer Startvideos in der Untersuchung.

Insbesondere bei neuen Themen wie der Covid-19-Pandemie scheinen die Bemühungen von YouTube, Desinformation weniger oft hervorzuheben, durch eine aktive Gruppe von verschwörungsgläubigen YouTube-Kanälen umgangen zu werden. Diese laden gelöschte Inhalte wieder hoch und produzieren immer wieder neue Videos. Die wenigen empfohlenen desinformativen Videos waren zudem auffällig oft – in 40 Prozent der untersuchten Fälle – monetarisiert. So werden finanzielle Reize für die Verbreitung von Desinformation geschaffen.

Auch wenn YouTubes Empfehlungen keine Katalysatoren für Desinformation sind, so zeigten diese ein anderes Problem auf: Sie befördern keine Angebotsvielfalt. Zum einen enthalten sie nur sehr wenige Videos zum ursprünglichen Thema. Dies war in nur elf Prozent der untersuchten Empfehlungen der Fall. Der geringe Anteil an Themenrelevantem schafft so kaum Platz für vielfältige Berichterstattung. Andererseits werden einzelne Kanäle sehr stark sichtbar gemacht – auf Kosten der vielen anderen Kanäle. Die starke Präsenz einzelner Kanäle und Videos lässt die potenzielle Vielfalt an Angeboten, die jede Minute auf YouTube hochgeladen werden, nicht zum Vorschein kommen. 

___________________________________________________________________

1Avaaz (2020). Why is YouTube Broadcasting Climate Misinformation to Millions? https://secure.avaaz.org/campaign/en/youtube_climate_misinformation/

2Google (2021). COVID-19 medical misinformation policy. https://support.google.com/youtube/answer/9891785?hl=en

3Correctiv (2020). Datenanalyse: Nutzer finden fragwürdige Corona-Informationen vor allem auf Youtube und verbreiten sie über Whatsapp. https://correctiv.org/faktencheck/hintergrund/2020/05/12/datenanalyse-nutzer-finden-fragwuerdige-corona-informationen-vor-allem-auf-youtube-und-verbreiten-sie-ueber-whatsapp/

4Correctiv (2020). Datenanalyse: Nutzer finden fragwürdige Corona-Informationen vor allem auf Youtube und verbreiten sie über Whatsapp. https://correctiv.org/faktencheck/hintergrund/2020/05/12/datenanalyse-nutzer-finden-fragwuerdige-corona-informationen-vor-allem-auf-youtube-und-verbreiten-sie-ueber-whatsapp/

zurück zur Übersicht