Sie sind auf Seite 1von 3

Übungsarbeit ​

Format: materialgestütztes Schreiben: Schreiben eines Kommentars für


eine Schülerzeitung​

AUfgabenstellung: ​

Sind FIlterblasen gefährlich?​

Informiere dich zuerst anhand von M1 und M2. ​


Schreibe DAnn einen Kommentar für das Web-Magazin des Dreilinden-
Gymnasiums. ​
(Leser sind vor allem Deine Mitschüler (weiniger die Eltern). Beziehe dich dabei auf M2-
M4. Schreibe 600 Wörter. (Wie immer +/- 10%). Achtung, die Quellenangaben stehen ganz
am Ende des Dokuments!)​

M1: Vorprogrammiert: Wie entstehen Filterblasen? | DW Deutsch​


https://www.youtube.com/watch?v=wu51nAcou_E​

M2: FILTERBLASEN: WENN MAN NUR DAS GEZEIGT BEKOMMT,


WAS MAN EH SCHON KENNT​
Der Begriff Filterbubble, englisch für Filterblase, wurde 2011 von Politaktivist Eli Pariser in
seinem Buch „Filter Bubble: Wie wir im Internet entmündigt werden“ geschaffen. Ihm fiel
auf, dass er auf Facebook immer weniger von seinen Kontakten, die konservativ orientiert
waren, las. Der verdächtigte Übeltäter: Der Facebook-eigene Algorithmus.​
Filterblasen entstehen durch Algorithmen. Ein Algorithmus bestimmt, wie ein
Computerprogramm sich verhalten soll. Bei Sozialen Netzwerken bedeutet das, welche
Inhalte in einem Feed angezeigt werden: Je nach Programmierung kann ein Algorithmus
Inhalte in einem Feed angezeigt werden: Je nach Programmierung kann ein Algorithmus
Prioritäten auf Inhalte von Freunden setzen, mit denen ich oft in Kontakt stehe. Oder auf
Inhalte, die viele andere Nutzer/-innen geliked oder kommentiert haben. Oder aber er zeigt
mir Inhalte, die ich häufig ignoriere, einfach gar nicht mehr an. Bei Suchmaschinen bezieht
sich dies auf die Auswahl und Sortierung der relevanten Ergebnisse zum Suchbegriff.​
Filterblasen entstehen also durch den Versuch, News-Feeds oder Suchergebnisse zu
personalisieren: Uns werden durch Algorithmen ausgewählte Themen angezeigt, die uns
potenziell gefallen können und unsere zuvor registrierten Interessen bestätigen oder ihnen
ähneln. Nach welchen Kriterien ein Algorithmus arbeitet, hängt von der jeweiligen Plattform
ab. Facebook sortiert anders als Twitter, das wiederum anders sortiert als Google. Wie
genau welche Plattform sortiert, ist meist nur oberflächlich bekannt – die Unternehmen
halten ihre Algorithmen geheim.​
AUSWIRKUNGEN​
Dieser einseitige Newsfeed kann neben einem verzerrten Meinungsüberblick auch Einfluss
auf die Meinung der Nutzer/-innen selbst haben. Durch eine einseitige Berichterstattung
wird die eigene Weltansicht verstärkt, mehrere andere dabei ignoriert. Zum einen fehlt
dadurch die Möglichkeit der umfassenden Reflexion eines Themas, zum anderen besteht
die Gefahr der Anpassung an eine der ständig dargestellten Meinungen. So könnte jemand
von einer gemäßigten Ansicht zu einer – übertrieben formuliert – extremen Ansicht geführt
werden.​
NUTZERFREUNDLICH ODER EINSCHRÄNKEND?​
Was sich größtenteils nutzerfreundlich anhört, kann beispielsweise bei der politischen
Meinungsbildung weitreichende Folgen haben – siehe die Präsidentschaftswahl in den
USA 2016.​
Für Viele war der Wahlausgang bei den 58. Präsidentschaftswahlen eine Überraschung.
Neben dem Vorwurf der einseitigen Berichterstattung der Medien wurde dem Phänomen
der Filterblase eine Mitschuld zugesprochen. Social-Media-User hätten nur ihre eigene,
widergespiegelte Meinung in ihren Feeds zugespielt bekommen, diese aufgrund ihrer
Allgegenwärtigkeit für die grundlegende Stimmung im Lande missinterpretiert und seien so
getäuscht worden. So lautete die Kritik von vielen Seiten.​


M3 Pro: ​
"Die Filterbubble bestimmt, was ich direkt an mich heranlassen möchte. Die Bubble gab es
übrigens auch schon vor dem Internet. Denn ich habe ja früher auch entschieden, welche
Tageszeitungen ich abonniere - das ist auch eine Filterbubble, man hat ja nicht alle
Tageszeitungen abonniert, um alle Perspektiven zu sehen. Genauso können wir Leute nicht
zwingen, in ihrem Online-Leben möglichst viele Quellen auf sich einwirken zu lassen. Wir
haben alle nur 24 Stunden am Tag. Wir müssen uns entscheiden, was für uns relevant ist,
womit wir uns beschäftigen wollen und womit nicht.
Ich interessiere mich zum Beispiel nicht für Dressurreiten, das ist eine Welt, die an mir
vorbeigeht. Das ist außerhalb meiner Filterbubble und das ist auch okay so. Es ist okay, wenn
Leute das sehen wollen, ich will das aber nicht. Und ich halte es für völlig zentral für jede
Person, sich die eigene Welt wirklich bewusst zu konstruieren. Ich glaube, dass es sogar sehr
gesund ist, erstmal ganz bewusst von den eigenen Interessen auszugehen und auch von einem
Bereich auszugehen, in dem man sich wohlfühlt. Diese digitale Welt kann auch sehr
kontrovers sein und sehr schnell - damit muss man umgehen lernen, und da ist eine
Filterbubble, in der man sich sehr wohlfühlt, weil man mit den Themen vertraut ist und weil
man nicht diese Kontroverse hat, sogar sehr angenehm. Um seinen eigenen Weg zu finden, um
dann vielleicht zu entscheiden, jetzt möchte ich in so eine Debatte auch tiefer einsteigen."​
Jürgen Geuter, 35 Jahre, freiberuflicher Diplom-Informatiker​

M4 Sind Algorithmen eine Gefahr für die Demokratie?​


04.06.2020​
Gefahren für die Meinungsbildung durch Bevorzugung emotionaler und polarisierender
Inhalte​
Prof. Dr. Birgit Stark, Professorin für Kommunikationswissenschaft an der Johannes
Gutenberg-Universität Mainz (JGU) und Direktorin am Mainzer Medieninstitut stellt in ihrem
Gutachten "Are Algorithms a Threat to Democracy?" einen Überblick über den aktuellen
1
Forschungsstand zu den negativen Auswirkungen von Intermediären auf den öffentlichen
1
Forschungsstand zu den negativen Auswirkungen von Intermediären auf den öffentlichen
Diskurs bereit. ​
Algorithmen in Online-Diskursen lassen Extrempositionen prominenter erscheinen und
geben diesen in der Debatte damit unverhältnismäßig viel Raum – häufig verknüpft mit
2
einer Zunahme von Inzivilität und Hassrede in politischen Auseinandersetzungen. Denn
ihre algorithmenbasierten Logiken befördern vor allem emotionale Inhalte und belohnen
das Polarisierende.​
(…) Sobald soziale Medien den Nutzern ein falsches Bild der (gesellschaftlichen)
Mehrheitsmeinung suggerieren, kann es zu einem Spiralprozess kommen, in dessen
Verlauf ein Meinungslager – bedingt durch die höhere und wachsende
Artikulationsbereitschaft des anderen – immer weniger wahrgenommen wird
(Neubaum/Krämer 2018). Durch diesen Effekt einer verzerrten Wahrnehmung des
Meinungsklimas in sozialen Medien besitzen soziale Medien unmittelbaren Einfluss.
Plattformen wie Facebook suggerieren ein falsches Bild der Mehrheitsmeinung, weil
Unterstützergruppen aus bestimmten Lagern gezielt Themen besetzen und rasant
weiterverbreiten. In Extremfällen entstehen so Resonanzräume, in denen sich politisch
Gleichgesinnte konzentrieren (Echokammern). Gleichzeitig erhalten gerade populistische
und extreme Politakteure – auch Verschwörungstheoretiker –, die sich besonders stark
emotionalisierender, zuspitzender Rhetorik bedienen, besonders viele Nutzerreaktionen
(Settle 2018). Das begünstigt ihre noch stärkere Verbreitung durch die Algorithmen auch
über die Grenzen der Echokammern hinweg und führt teilweise zum „Überschwappen“
solcher Diskurse in die Nachrichtenmedien und die Öffentlichkeit. Somit beeinflusst eine
lautstarke Minderheit auf individueller Ebene die Artikulationsbereitschaft der Mehrheit
negativ und polarisiert die öffentliche Meinung auch außerhalb sozialer Medien. In solch
abgeschotteten Räumen verfehlen auch gezielt gestreute Fehlinformationen, so absurd sie
auch sein mögen, ihre Wirkung nicht. ​
________________________________________________________________________
__​
Quellen: ​
M2: Landesmedienzentrale Baden-Württemberg, Informationsseite, verfasst von Ina Mangold:
https://www.lmz-bw.de/medien-und-bildung/jugendmedienschutz/fake-news/filterblasen-wenn-
man-nur-das-gezeigt-bekommt-was-man-eh-schon-kennt/​
M3: Bayrischer Rundfunk: Pro und Contra Filterbubble: Angenehm in der Komfortzone oder
blind hinter Scheuklappen? https://www.br.de/puls/themen/netz/do-not-track-filterbubble-pro-
contra-100.html​
M4: Pressemitteilung der Universität Mainz vom 4.6.2020 über das Erscheinen einer Studie von
Frau Prof. Birgit Stark. https://www.uni-mainz.de/presse/aktuell/11511_DEU_HTML.php
(Pressemitteilungen erscheinen im Normalfall ohne Angabe eines Verfassers)​
:

Das könnte Ihnen auch gefallen