Wie Facebook uns dümmer macht – How Facebook Makes Us Dumber – Cómo Facebook nos hace tontísimos

Wie Facebook uns dümmer macht

Warum verbreitete sich die Fehlinformation so schnell auf den Social Media? Warum wird es nicht korrigiert? Wenn die Wahrheit so leicht zu finden ist, warum akzeptieren Menschen Unwahrheiten?

Eine neue Studie mit Fokus auf Facebook-Nutzer zeigt starke Beweise, dass die Erklärung der sogenannte Bestätigungs Bias ist: die Menschen haben die Tendenz Informationen zu suchen, die ihre Überzeugungen bestätigt, und gegenteilige Informationen zu ignorieren.Internet source
Die Bestätigungsverzerrung hat eine entscheidende Rolle bei der Schaffung von Online-Echokammern. Dieser Befund stützt sich auf ein breites Spektrum von Themen, einschließlich der aktuellen Präsidentschafts-Kampagne, die Akzeptanz von Verschwörungstheorien und konkurrierenden Positionen in internationalen Streitigkeiten.

Die neue Studie unter der Leitung von Michela Del Vicario vom italienischen Labor für Computational Social Science, untersucht das Verhalten der Facebook-Nutzer von 2010 bis 2014. Eines der Ziele der Studie war es, eine Frage, die weiterhin scharf diskutiert wird zu testen: Wenn Menschen online sind, treffen sie auf entgegengesetzte Ansichten, oder schaffen sie das virtuelle Äquivalent von Gated Communities?
Del Vicario und ihre Coautoren untersuchten, wie Facebook-Nutzer Verschwörungstheorien verbreiten (unter Verwendung von 32 öffentlichen Webseiten); Wissenschaft Nachrichten (mit 35 solcher Seiten); Und “Trolle”, die bewusst falsche Informationen verbreiten (mit zwei Webseiten). Ihr Datensatz ist massiv: Er umfasst alle Facebook-Beiträge während der fünf Jahre. Sie erkundeten, welche Facebook-Nutzer mit einer oder mehreren der 69 Webseiten verknüpft sind und ob sie über diese Links von ihren Facebook-Freunden erfahren haben.

In der Summe finden die Forscher viele Gemeinden gleichgesinnter Menschen. Selbst wenn sie grundlos sind, verbreiten sich Verschwörungstheorien schnell innerhalb solcher Gemeinschaften.
Im Allgemeinen neigten Facebook-Nutzer dazu, Geschichten auszuwählen und zu teilen, die Nachrichten enthalten, die sie akzeptieren, und die zu vernachlässigen, die sie ablehnen. Wenn eine Geschichte zu dem passt, was die Menschen schon glauben, sind sie viel eher daran interessiert und es zu verbreiten.Internet Source
Wie Del Vicario und ihre Koautoren sagen, “neigen die Benutzer meist dazu, Inhalte nach einer bestimmten Erzählung auszuwählen und zu teilen und den Rest zu ignorieren.” Auf Facebook ist das Ergebnis die Bildung vieler “homogener, polarisierter Cluster”. Diese Cluster, neue Informationen bewegen sich schnell zwischen Freunden (oft in nur wenigen Stunden).

Die Folge ist die “Verbreitung von voreingenommenen Erzählungen, die von unbegründeten Gerüchten, Misstrauen und Paranoia begünstigt werden.” Und während die Studie auf Facebook – Nutzer fokussiert ist, besteht kaum Zweifel daran, dass etwas Ähnliches auf anderen Social Media – wie Twitter – und ebenso in der realen Welt geschieht.
ihre Entdeckungen sind deutlich, Del Vicario und ihre Coautoren erwähnen jedoch nicht das wichtige Phänomen der “Gruppenpolarisierung”, was bedeutet, dass, wenn Gleichgesinnte miteinander reden, sie dazu neigen, eine extremere Version des ursprünglich gedachten zu denken. Wann immer Menschen Fehlinformationen in homogenen Clustern verbreiten, intensivieren sie auch das Engagement für diese Fehlinformationen.

Von den verschiedenen Erklärungen für die Gruppenpolarisation, betrifft die relevanteste eine möglicherweise heimtückische Wirkung der Bestätigung selbst. Sobald die Menschen entdecken, dass andere mit ihnen übereinstimmen, werden sie selbstsicherer – und dann noch extremer.internet Source
In diesem Sinne, ist der Bestätigungs Bias selbstverstärkend, wodurch eine bösartige Spirale entsteht. Wenn Menschen mit einem bestimmten Glauben anfangen und Informationen finden, die sie bestätigen, werden sie ihr Engagement für diesen Glauben intensivieren und so ihre Neigung verstärken.
Angenommen, Sie denken, dass eine Erhöhung des Mindestlohns eine sensationelle Idee ist, dass der Atomabkommen mit dem Iran ein Fehler ist, dass Obamacare gut funktioniert, dass Donald Trump ein guter Präsident ist oder dass das Problem der Klimaveränderung stark überbewertet ist. Kommen Sie auf eigene Faust zu diesen Urteilen, dann können Sie sie vorsichtig und mit einem fairen Grad der Demut haben. Aber nachdem Sie erfahren, dass viele Menschen mit Ihnen einverstanden sind, fühlen Sie wahrscheinlich am Ende eine viel größere Sicherheit – und vielleicht echte Verachtung für Menschen, die Dinge nicht so sehen, wie Sie es tun.

Auf der Basis aller Clusterunng, die fast ausschliesslich auf Facebook passierte. Starke Unterstützung für diese Schlussfolgerung stammt aus der Forschung des gleichen akademischen Teams, die feststellt, dass die Bemühungen falsche Überzeugungen auf Facebook richtigzustellen typischerweise ignoriert werden – und wenn die Menschen darauf achten, verstärken sie oft ihr Engagement für die entlarvten Überzeugungen.Internet Source
Kann etwas getan werden? Die beste Lösung ist, eine Kultur der Demut und Offenheit zu fördern. Einige Leute und einige Gemeinschaften halten ihre Ansichten zögernd; Sie interessieren sich für die Widerlegung, nicht nur die Bestätigung. Mehr noch, diejenigen die soziale Medien (wie Google) verwalten können Maßnahmen ergreifen, um Menschen zu beurteilen, die Vertrauenswürdigkeit dessen, was sie sehen, obwohl diese Bemühungen umstritten sein könnten und in einem vorläufigen Zustand blieben.
In der Mitte des Zweiten Weltkrieges, sagte ein großer Bundesrichter, Learned Hand, dass der Geist der Freiheit “der Geist ist, der nicht allzu sicher ist, dass es richtig ist.” Die Nutzer der sozialen Medien können sicher ihre Freiheit leben. Aber es gibt ein echtes Risiko, dass, wenn sie Opfer des Bestätigungs Bias werden, sie am Ende Kompromisse mit der Freiheit ihres Geistes eingehen – und tot falsch gestartet.

Schau mal: 

http://aliciakuehn.com/2015/11/08/begrenzende-uberzeugungen-creencias-limitantes-limiting-beliefs/

 

How Facebook Makes Us Dumber

Why does misinformation spread so quickly on the social media? Why doesn’t it get corrected? When the truth is so easy to find, why do people accept falsehoods?

A new study focusing on Facebook users provides strong evidence that the explanation is confirmation bias: people’s tendency to seek out information that confirms their beliefs, and to ignore contrary information.

Confirmation bias turns out to play a pivotal role in the creation of online echo chambers. This finding bears on a wide range of issues, including the current presidential campaign, the acceptance of conspiracy theories and competing positions in international disputes.Internet source

The new study, led by Michela Del Vicario of Italy’s Laboratory of Computational Social Science, explores the behavior of Facebook users from 2010 to 2014. One of the study’s goals was to test a question that continues to be sharply disputed: When people are online, do they encounter opposing views, or do they create the virtual equivalent of gated communities?

Del Vicario and her coauthors explored how Facebook users spread conspiracy theories (using 32 public web pages); science news (using 35 such pages); and “trolls,” which intentionally spread false information (using two web pages). Their data set is massive: It covers all Facebook posts during the five-year period. They explored which Facebook users linked to one or more of the 69 web pages, and whether they learned about those links from their Facebook friends.

In sum, the researchers find a lot of communities of like-minded people. Even if they are baseless, conspiracy theories spread rapidly within such communities.

More generally, Facebook users tended to choose and share stories containing messages they accept, and to neglect those they reject. If a story fits with what people already believe, they are far more likely to be interested in it and thus to spread it.

As Del Vicario and her coauthors put it, “users mostly tend to select and share content according to a specific narrative and to ignore the rest.” On Facebook, the result is the formation of a lot of “homogeneous, polarized clusters.” Within those clusters, new information moves quickly among friends (often in just a few hours).Internet Source

The consequence is the “proliferation of biased narratives fomented by unsubstantiated rumors, mistrust, and paranoia.” And while the study focuses on Facebook users, there is little doubt that something similar happens on other social media, such as Twitter — and in the real world as well.

Striking though their findings are, Del Vicario and her coauthors do not mention the important phenomenon of “group polarization,” which means that when like-minded people speak with one another, they tend to end up thinking a more extreme version of what they originally believed. Whenever people spread misinformation within homogenous clusters, they also intensify one another’s commitment to that misinformation.

Of the various explanations for group polarization, the most relevant involves a potentially insidious effect of confirmation itself. Once people discover that others agree with them, they become more confident — and then more extreme.

In that sense, confirmation bias is self-reinforcing, producing a vicious spiral. If people begin with a certain belief, and find information that confirms it, they will intensify their commitment to that very belief, thus strengthening their bias.internet Source

Suppose, for example, that you think an increase in the minimum wage is a sensational idea, that the nuclear deal with Iran is a mistake, that Obamacare is working well, that Donald Trump would be a fine president, or that the problem of climate change is greatly overstated. Arriving at these judgments on your own, you might well hold them tentatively and with a fair degree of humility. But after you learn that a lot of people agree with you, you are likely to end up with much greater certainty — and perhaps real disdain for people who do not see things as you do.

On the basis of all the clustering, that almost certainly happened on Facebook. Strong support for this conclusion comes from research from the same academic team, which finds that on Facebook, efforts to debunk false beliefs are typically ignored — and when people pay attention to them, they often strengthen their commitment to the debunked beliefs.Internet Source

Can anything be done? The best solution is to promote a culture of humility and openness. Some people, and some communities, hold their own views tentatively; they are interested in refutation, not just confirmation. Moroever, those who manage social media (such as Google) can take steps to allow people to assess the trustworthiness of what they are seeing, though these efforts might be controversial and remain in a preliminary state.

In the midst of World War II, a great federal judge, Learned Hand, said that the spirit of liberty is “that spirit which is not too sure that it is right.” Users of the social media are certainly exercising their liberty. But there is a real risk that when they fall prey to confirmation bias, they end up compromising liberty’s spirit — and dead wrong to boot.

Look at this: http://aliciakuehn.com/2015/11/08/begrenzende-uberzeugungen-creencias-limitantes-limiting-beliefs/

 

Cómo Facebook nos hace tontísimos

Por qué la mala información se expande tan rápidamente ? Por qué esta no se corrige ? Cuando la verdad es tan fácil de encontrar, por qué la gente acepta falsas campanadas ?

Un nuevo estudio focalisado en los usuarios de Facebook demuestra fuerte evidencia que la explicación es Confimación Bias : la gente tiende a buscar información que confirma sus creencias, e ignora la información contraria.Internet source

Confirmación Bias desempeña un papel fundamental en la creación en línea de eco cámaras. Este hallazgo se refiere a una amplia gama de temas, incluyendo la actual campaña presidencial, la aceptación de teorías de conspiración y posiciones competitivas en disputas internacionales.

El nuevo estudio, dirigido por Michela Del Vicario del Laboratorio Italiano de Ciencias Computacionales Sociales, explora el comportamiento de los usuarios de Facebook desde 2010 a 2014. Uno de los objetivos del estudio fue contestar una pregunta que sigue siendo fuertemente discutida: Cuando la gente está en línea, ¿Se enfrentan a puntos de vista opuestos o crean el equivalente virtual de comunidades cerradas?

Del Vicario y sus coautores exploraron cómo los usuarios de Facebook difundieron teorías conspirativas (usando 32 páginas web públicas); Noticias científicas (usando 35 páginas); Y “trolls”, que intencionalmente difunden información falsa (usando dos páginas web). Su conjunto de datos es masivo: cubre todos los puestos de Facebook durante el período de cinco años. Ellos exploraron los usuarios de Facebook vinculados a una o más de las 69 páginas web, y así se enteraron de los enlaces de  amigos en Facebook.

En suma, los investigadores encuentran un montón de comunidades de personas con ideas afines. Incluso si no contienen base, las teorías de la conspiración se propagan rápidamente dentro de esas comunidades.Internet Source
En términos más generales, los usuarios de Facebook tendían a elegir y compartir historias que contenían mensajes que aceptaban, y a ignorar los que rechazaban. Si una historia encaja con lo que la gente ya cree, es mucho más probable que estén interesados en ella y así difundirla.

Según Del Vicario y sus coautores, “los usuarios tienden en su mayoría a seleccionar y compartir contenido de acuerdo a una narrativa específica e ignorar el resto”. En Facebook, el resultado es la formación de muchos “clústeres homogéneos y polarizados”. Esos clusters (Un Cluster es COLABORACIÓN: “COLABORAR PARA COMPETIR”.) , la nueva información se mueve rápidamente entre amigos (a menudo en pocas horas).
La consecuencia es la “proliferación de narraciones tendenciosas fomentadas por rumores sin fundamento, desconfianza y paranoia”. Y aunque el estudio se centra en los usuarios de Facebook, no hay duda de que algo similar ocurre en otros medios sociales, como Twitter y en el Mundo real también.

Por sorprendente que sean sus conclusiones, Del Vicario y sus coautores no mencionan el importante fenómeno de la “polarización grupal”, lo que significa que cuando las personas de ideas afines conversan entre sí, tienden a terminar pensando en una versión más extrema de lo que originalmente habían creído. Cada vez que la gente difunde información errónea dentro de grupos homogéneos, también intensifican el compromiso mutuo con esa desinformación.internet Source
De las diversas explicaciones para la polarización grupal, la más relevante implica un efecto potencialmente insidioso de la confirmación misma. Una vez que la gente descubre que otros están de acuerdo con ellos, se vuelven más seguros – y luego más extremos.
En ese sentido, el sesgo de confirmación es auto-reforzante, produciendo una espiral viciosa. Si la gente comienza con cierta creencia y encuentra información que la confirma, intensificará su compromiso con esa misma creencia, reforzando así su parcialidad.
Supongamos, por ejemplo, que tu piensas que un aumento en el salario mínimo es una idea sensacional, que el acuerdo nuclear con Irán es un error, que Obamacare está funcionando bien, que Donald Trump sería un buen presidente, o que el problema del cambio climático es muy exagerado. Llegando a estos juicios por tu cuenta, es posible que los mantengas tentativamente y con un grado razonable de humildad. Pero después de aprender que mucha gente está de acuerdo contigo, es probable que termines con mucha mayor certeza – y tal vez un desdén real para las personas que no ven las cosas como las hacen.Internet Source
Sobre la base de esos Clusters, esto seguramente ocurre en Facebook. Un fuerte apoyo para esta conclusión proviene de la investigación del mismo equipo académico, que encuentra que en Facebook, los esfuerzos para desacreditar creencias falsas son típicamente ignorados – y cuando la gente les presta atención, a menudo fortalecen su compromiso con las creencias desacreditadas.
¿Se puede hacer algo? La mejor solución es promover una cultura de humildad y apertura. Algunas personas, y algunas comunidades, mantienen sus propias opiniones provisionalmente; Están interesados en la refutación, no sólo en la confirmación. Más que nunca, los que manejan los medios de comunicación social (como Google) pueden tomar medidas para permitir a la gente evaluar la confiabilidad de lo que están viendo, aunque estos esfuerzos pueden ser controvertidos y permanecer en un estado preliminar.
En medio de la Segunda Guerra Mundial, un gran juez federal, Learned Hand, dijo que el espíritu de libertad es “ese espíritu que no está muy seguro de que sea correcto”. Los usuarios de las redes sociales están ejerciendo su libertad. Pero existe un riesgo real de que cuando caigan presa del sesgo de confirmación, terminen comprometiendo el espíritu de la libertad – y el error muerto de arrancar.

 

En un blog hablamos sobre como las percepciones afectan las creencias tendiendo a la confirmacion Bias: http://aliciakuehn.com/2015/11/08/begrenzende-uberzeugungen-creencias-limitantes-limiting-beliefs/

Fuente – Quelle – Source:

http://origin-www.bloombergview.com/view/articles/2016-01-08/how-facebook-makes-us-dumber

 

 

Merken

Leave a Reply