Facebook manipuliert Veranstaltungen, Gefühle und Meinungen!

Nicht nur das Facebook privates ausschnüffelt und mit der NSA zusammenarbeitet sollte den Nutzern Sorgen bereiten. Bei dieser Überwachung geht es um mehr als nur um ein paar Basisdaten über den Nutzer. NPR hat zusammengetragen wie unsere Gefühle, Meinungen, was wir sehen, Veranstaltungen und mehr fast unmerklich manipuliert werden.

Die nachfolgenden Textstellen sind „nur Auszüge“ aus den jeweiligen Artikeln. Die Quelle ist direkt darunter als Link zum ganzen Artikel angegeben.

Facebook unterwandert Flashmob-Verabredungen

Ist dieser Artikel von Heise ein Aprilscherz oder vielleicht doch ein Körnchen Wahrheit
Siehe Beitrag von Epochtimes: APRIL APRIL: Facebook, Google und NSA: Manipulation gegen die Demokratie

Geradezu perfekt geeignet sein soll SPORA zum Unterbinden von Flashmobs oder Protesten, bei denen die Teilnehmerzahl absehbar klein ist.

FB Nutzer weltweit
FB Nutzer weltweit

Facebook setzte das Verfahren dann auch nicht nur gegen Occupy-Nachahmer ein, sondern manipulierte offenbar willkürlich ausgesuchte Flashmob-Planungen weltweit, um die Algorithmen „live“ zu testen. Dass solche oft kein politisches Ziel haben, sondern nur zum Vergnügen stattfinden, kommt den Entwicklern dabei durchaus gelegen. So fällt kein unmittelbarer Verdacht auf Facebook. Stattdessen erklären sich die Teilnehmer das Scheitern mit einem zu geringen Interesse der Öffentlichkeit. Der psychologische Effekt dieser Erfahrungen sei bei den Veranstaltern durchschlagend, sodass diese nach spätestens zwei Fehlschlägen von weiteren Planungen absehen.

Streuen statt blockieren

Bei SPORA geht es laut den Dokumenten nicht darum, Verabredungen für Flashmobs und Demonstrationen einfach zu verhindern, indem Nachrichten nicht oder zu spät zugestellt werden. Viel effektiver ist ein Algorithmus mit einem subtileren und ungleich perfideren Ansatz: die gezielte Verfälschung von Zeit- und Ortsangaben. Das geschieht sowohl in Facebook-„Veranstaltungen“ selbst, als auch in Direktnachrichten, in denen potenzielle Teilnehmer sich über die Veranstaltung austauschen und verabreden. Die Kommunizierenden bekommen also von den Apps oder Webseiten jeweils abweichende Daten angezeigt und erscheinen danach zu unterschiedlichen Zeiten an verschiedenen Orten zur vermeintlichen Demo.

Heise


Facebook manipulierte für Studie Nachrichtenstrom

Entsprechend wurden für Nutzer die Einträge ihrer Facebook-Freunde vorgefiltert. Die Autoren der kürzlich veröffentlichten Studie kamen zu dem Schluss, dass Menschen, die mehr positive Nachrichten sahen, etwa eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen und umgekehrt.

Facebook manipuliert permanent

Dennoch räumte Susan Fiske von der Universität Princeton, die die Veröffentlichung des Studienergebnisses redigierte, im Interview mit dem Online-Magazin The Atlantic ein Unwohlsein ein. Sie habe daher die Studienautoren kontaktiert. Diese hätten darauf verwiesen, dass ihnen die Studie von den zuständigen Gremien genehmigt worden sei, „da Facebook offenbar die News Feeds der Leute permanent manipuliert“.

Zeit


Gute Stimmung auf Facebook bringt Rendite

Dafür nutzten sie den Facebook Gross National Happiness Index, der die Stimmung in 20 Ländern weltweit wiedergibt – darunter Deutschland, die USA und Großbritannien. Facebook wertet in diesem Index aus, ob Nutzer positive oder negative Ausdrücke verwenden, wenn sie einen neuen Eintrag mit ihren Freunden teilen. Ausdrücke wie „Frohe Weihnachten“ und „Frohes neues Jahr“ wurden bei der Untersuchung ausgeschlossen.

Wirtschaftswoche


Datenauswertung: Facebook analysiert das Liebesleben

Facebook erkennt die schwachen Momente eines Menschen

Diese Zahlen und Graphen mögen spannend oder sogar erhellend sein – sie sollten aber auch Bedenken schüren. Weil Facebook quasi aus der Vogelperspektive auf Beziehungsnetze schauen kann und riesige Datenmengen zur Verfügung hat, könnten Facebook-Soziologen und -Psychologen menschliches Verhalten und gesellschaftliche Trends vorhersehen. Sie könnten Einfluss nehmen oder schwache Momente eines Menschen ausnutzen – etwa, wenn sich ein Beziehungsende abzeichnet.

Für all das sind keine Analysen der Nachrichteninhalte nötig, sondern allein die Betrachtung der so genannten Metadaten: wer mit wem wann in Kontakt tritt. Und genau diese Daten stehen in großer Menge und ständiger Verfügbarkeit auch den Analysten etwa des Geheimdienstes NSA zur Verfügung. Diese harmlosen Analysen zum Valentinstag können deshalb auch als Warnung verstanden werden: Durch eine Analystenbrille stellt sich die romantische Liebe als abgekartetes Spiel dar. Die Liebe ist vielleicht der einzige Weg zur inneren Freiheit – aber sie lässt sich auch dazu ausnutzen, um Menschen zu gängeln.

Spiegel


Facebook manipulierte für eine Studie den Nachrichtenstrom

Facebook hat vor eineinhalb Jahren in einer Studie untersucht, wie sich positive und negative Emotionen in Netzwerken ausbreiten. Dazu wurde die Auswahl der Einträge ihrer Facebook-Freunde im Nachrichtenstrom einiger hunderttausend Nutzer vorgefiltert. Die Autoren der kürzlich veröffentlichten Studie kamen zu dem Schluss, dass Menschen, die mehr positive Nachrichten sahen, etwas eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen – und umgekehrt.

Heise


Facebook-Studie soll Gefahr der „Filterbubble“ widerlegen

Forscher bei Facebook wollten für eine Studie herausfinden, wie groß die Gefahr wirklich ist, dass die eigenen Nutzer in einer Filterbubble keine abweichenden Meinungen zu sehen bekommen. Beantwortet haben sie das aber nicht wirklich.

Eingeschränkte Weltsicht

Bereits seit längerem wird diskutiert, welche Folgen es hat, dass sich Menschen auf Facebook vor allem mit Leuten verbinden, die ähnliche Ansichten haben. Möglich sei, dass dadurch jeweils eine Filterbubble entsteht, in der sich Nutzer vor allem ähnlichen oder gleichen Meinungen gegenübersehen. Für die Studie haben die Forscher nun das Klickverhalten von rund 10 Millionen US-amerikanischen Facebook-Nutzern ausgewertet. Und zwar solcher, die ihre eigene politische Überzeugung über das Eingabefeld in ihrem Profil als „liberal“ oder „conservative“ angegeben haben. Es wurde analysiert, wieviele Posts des jeweils gegenüberliegenden Spektrums den Nutzern angezeigt beziehungsweise vom Algorithmus vorenthalten wurde.

Heise


Warum Facebook im News Feed veraltete Beiträge wieder nach oben spült

Gegen Twitter sieht Facebook alt aus
Am Nutzen für die User kann man aber zweifeln – wer braucht schon veraltete Meldungen von gestern? Gegen Twitter, wo der Echtzeit-Stream nicht vorgefiltert wird und man auch wirklich bekommt, was man abonniert hat (“Follow”), wirkt Facebook sprichwörtlich alt. Außerdem verdeutlicht das “Story Bumping” die grundlegende Problematik des News Feed: Facebook definiert nach halb geheimen Regeln, welche News wir zu sehen bekommen und welche nicht. Zudem schreckt die Firma auch nicht vor Experimenten zurück, in denen die Gefühle der User manipuliert werden, indem gehäuft negative Meldungen angezeigt werden.

Facebook experimentiert mit unseren News
Facebook hat eine zentrale Rolle im Nachrichtenkonsum vieler Menschen auf der ganzen Welt eingenommen und damit eine große Verantwortung. Dass man diese Verantwortung ernst nimmt, muss man wegen Dingen wie “Story Bumping” oder dem kontroversen Psycho-Experiment, gegen das bereits Sturm gelaufen wird, anzweifeln.

Jakkse


Ist das Löschen des Facebook-Kontos die einzige wirksame Aktion gegen die Änderung der AGBs?

Das ist ein wichtiger Anfang. Dann sollte man die eigenen Freunde davon überzeugen, dass Facebook nicht mehr akzeptabel ist. Schließlich sollte man Behörden und Unternehmen, mit denen man zu tun hat, auffordern, bei Facebook rauszugehen. Wenn das passiert, geht auch der Traffic zurück und Facebook wird demokratisch eingehegt. Anfangen können wir damit heute.

Südwest Presse

 

Teile die andere Seite der Medaille:
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Verwandte Beiträge

Hinterlasse einen Kommentar