Los nuevos guardianes de la verdad

  Cómo las noticias falsas en internet se convirtieron en una de las mayores controversias tecnológicas del 2016

 

Cómo las noticias falsas en internet se convirtieron en una de las mayores controversias tecnológicas del 2016
Por Tamar Colodenco (*)

La circulación de noticias falsas en Facebook fue uno de los temas más comentados durante la campaña electoral estadounidense. Muchos políticos y periodistas incluso llegaron a encontrar allí la razón de la derrota por parte de los demócratas. ¿Qué tan peligrosas son las noticias falsas que se difunden en las redes sociales? ¿Cómo se puede contrarrestar esta tendencia? ¿Quién debería ser el responsable de verificar las noticias en la era de la de la hiperinformación?

Un oso panda viaja en primera en una aerolínea china. Un refugiado sirio ataca violentamente a un indigente en Alemania. Las vacunas contra el HPV son el producto de una conspiración secreta internacional para causar daño a las niñas de países en vías de desarrollo. Un portal intergaláctico apareció en Ginebra y ya funciona como autopista espacial para ovnis que quieren visitar nuestro planeta. El limón congelado es la cura para el cáncer que los grandes laboratorios no quieren que conozcas. Hillary Clinton, en realidad, murió en 1998, junto a toda su familia, y luego fue clonada en un laboratorio.

Todos estos titulares disparatados podrían conformar el índice de alguna revista satírica como Barcelona o The Onion, pero se difundieron como noticias reales a través de internet y llegaron a engañar a no pocos lectores ingenuos que las compartieron junto con emoticones de indignación y sorpresa.

Las noticias falsas no son nuevas en internet —están allí desde el inicio—, pero a medida que la red se masificó, el problema fue empeorando. Al principio, antes de las redes sociales, los sitios de noticias eran pocos y reproducían en versión facsímil el mismo contenido publicado en el mundo offline. La novedad de internet radicaba en que los portales de The Economist y The Telegraph (primeros medios online, en 1994) podían convivir con el sitio web de un ufólogo de la provincia de Córdoba o con un fanático del cine Clase B que alojaba su contenido en Geocities. Internet era un repositorio potencialmente infinito donde cualquier usuario podía publicar o acceder a información de su interés. Los grandes medios tuvieron que adaptarse a esa lógica y, en poco tiempo, no hubo diario, revista o canal de televisión que no hubiera lanzado su propio portal online.

Las redes sociales, y en particular Facebook, pusieron en jaque el modelo de los sitios webs de noticias con lectores por suscripción. La compañía de Mark Zuckerberg logró construir un ecosistema cerrado donde se despliegan, sin solución de continuidad, noticias, videos, eventos, concursos, publicidades, encuestas. El usuario interactúa con una enorme cantidad de contenidos que es generado por fuera de la plataforma. Una experiencia similar ofrece Google Now, un servicio de Google disponible en dispositivos móviles con Android o iOS. Google Now funciona como una especie de “asistente personal” y despliega información sobre eventos, el clima, viajes y noticias, que se personalizan en función de nuestro historial de búsquedas, del contenido de nuestros mails o del rastro que detecta el sistema de geolocalización. En el caso de Facebook, las publicaciones que vemos en nuestro “feed” se personalizan de acuerdo a sofisticados algoritmos basados en nuestra actividad, contactos, “me gusta” y comentarios.

Cambia, entonces, la forma de acceder a las noticias. Plataformas como Facebook y Google se transforman en una especie de kiosco de diarios donde la BBC convive con el sitio “Código Oculto”, que hace poco publicó una nota donde aseguraba que la reina de Inglaterra era en realidad un reptil. Este modelo de “ecosistema nativo”, donde todo contenido exterior es absorbido y distribuido por mega-plataformas, resulta especialmente problemático cuando se espera que Facebook, Twitter o Google cumplan un rol central en el debate público, algo para lo que no fueron inicialmente diseñadas.

La dictadura de los algoritmos

Uninforme de 2016 del Pew Research Center1 revela que, en Estados Unidos, el 62% de las personas acceden a las noticias a través de las redes sociales. La mayoría de los encuestados afirma que usualmente recurre a un solo sitio para informarse. Facebook es la única fuente de noticias e información para muchos ciudadanos. Pero por la propia estructura y modelo de negocios del sitio, es difícil separar la paja del trigo. Todas las noticias que allí se comparten vienen empaquetadas con el mismo diseño: un recuadro con una foto en el cuadrante superior y una tira de texto sobre un fondo blanco con relieve. A primera vista, una noticia del New York Times se ve igual que una publicación de un blog. A esta homogeneidad visual, se suma otro aspecto que favorece la ubicuidad de las noticias falsas: el funcionamiento del News Feed, ese despliegue de publicaciones, fotos y videos que cada persona ve cuando ingresa a Facebook.

Ningún usuario sabe a ciencia cierta cómo se “curan” las noticias que vemos en nuestro feed, pero Facebook admite que el “número de comentarios y likes que una publicación recibe incrementa la posibilidad de que esa publicación aparezca en nuestro feed”. Los sitios de noticias falsas se aprovechan de este mecanismo a través de titulares sorpresivos o chocantes que generan reacciones inmediatas: “El Papa llamó a votar por Donald Trump”; “El Dalai Lama anuncia el estreno de su sitcom”; “Haz click para ver la foto de Obama sonriendo junto a la remera del Che Guevara”. En inglés, esta estrategia se conoce como click-baiting (o usar un anzuelo para que el usuario desprevenido haga clic) y es altamente efectiva. Un informe de Buz Feed2 asegura que mientras menos confiable sea la información, es más la cantidad de usuarios que comparten o comentan las publicaciones. El “engagement” es inversamente proporcional a la credibilidad de la fuente. En este contexto, la dictadura del algoritmo favorece a los sitios de noticias falsas “premiándolos” con mayor visibilidad y extendiendo su vida útil en el feed de los usuarios.

Intermediarios o terceros: ¿Quién es el responsable?

Es importante recordar que las plataformas como Google y Facebook, que están en el centro de la polémica por las noticias falsas, no dejan de ser intermediarios que permiten a terceros publicar información u opiniones. Los estándares nacionales e internacionales sobre regulación de intermediarios están enmarcados en la defensa a la libertad de expresión que no puede estar sujeta a censura previa. Sólo cabe regular responsabilidades ulteriores que, según los principales tratados internacionales y regionales de derechos humanos, deben orientarse a asegurar el respeto a los derechos o a la reputación de las personas, la protección de la seguridad nacional, el orden público y la salud o la moral públicas. Además, las sanciones por publicar contenidos ilícitos deberían recaer en los autores de esos contenidos y no en los intermediarios que proveen la plataforma para el intercambio de información. La responsabilidad de los intermediarios se activa cuando la autoridad competente —usualmente un juez— ordena la eliminación de algún contenido y el intermediario no acata la orden.

Respuestas como la de Alemania, que ya está discutiendo un proyecto de ley para multar a Facebook por las noticias falsas reportadas por autoridades públicas, pero también por privados, podrían resultar contrarias a estos estándares porque permitiría que cualquier individuo determine la credibilidad de las noticias. ¿Pero qué pasa si los usuarios denuncian masivamente noticias que no son falsas? ¿Si denuncian noticias de opinión con las que sencillamente no están de acuerdo? ¿Cómo hará Facebook para impedir que los ejércitos de trolls empleados por partidos políticos u organizaciones de toda índole se dediquen a reportar noticias contrarias a sus posiciones ideológicas? El empleo de usuarios como factcheckers podría resultar problemático. Y recurrir a organizaciones profesionales de chequeo periodístico —como Poynters, Correctiv o la BBC, que ya anunció su intención de sumarse a la cruzada por “desenmascarar” noticias falsas— sería sin duda un paso adelante, pero también genera nuevos interrogantes. ¿Cómo harán los factcheckers para verificar el enorme caudal de noticias que circula en la red? ¿Se ocuparán sólo de noticias políticas —como todo parece indicar— o también se incluirán otras áreas como la ciencia o la salud? ¿Existirá algún mecanismo de reclamos por parte de los terceros que podrían verse perjudicados?

En definitiva, a partir de 2017, los generadores de contenidos se verán sometidos a una batería de nuevas regulaciones complejas en las redes sociales. A la legislación internacional y nacional, se suman las políticas propias de cada empresa que están tomando forma, en gran medida, como respuesta a las presiones de la opinión pública post-elecciones norteamericanas. Una noticia que circule en Facebook puede entonces quedar sujeta a sanciones judiciales, puede ser objeto de denuncia por parte de un privado o de una organización especializada. El sitio emisor puede ser penalizado judicialmente, pero también puede ser sancionado directamente por la compañía y excluido de su sistema de publicidad o perjudicado en su visibilidad dentro de la plataforma (ver recuadro) sin que un juez o una autoridad pública se haya expedido previamente. Este panorama también puede tener un efecto de autocensura en algunos medios que publican notas de opinión o artículos marcadamente partidarios y que podrían ser objeto constante de denuncias por parte de los nuevos guardianes de la verdad en internet.

No hay respuestas fáciles para el problema de las noticias falsas. Políticos, periodistas y ciudadanos indignados coinciden en la gravedad del asunto y reclaman medidas inmediatas y firmes. Pero cualquier fórmula cocinada al calor de la presión popular puede poner en jaque el derecho fundamental a la libertad de expresión. El foco de la discusión estuvo puesto hasta ahora en Facebook y su responsabilidad como red omnipresente en la vida de millones. Tal vez sea hora de pensar cómo hacer para tener una internet más plural y diversa, con mayor competencia de intermediarios, más voces participando del debate público y ciudadanos más empoderados en la lectura crítica de los medios, dentro y fuera de internet.

The Facebook Journalism Project

Ante la polémica por las noticias falsas y el rol de Facebook en su difusión y propagación, el 11 de enero de 2017, el gigante de Silicon Valley presentó su nuevo programa pensado para estrechar lazos entre la compañía y el mundo del periodismo. The Facebook Journalism Project1 tendrá tres objetivos. Primero, habrá una línea dedicada al desarrollo de nuevos productos periodísticos y modelos de negocios. Según Facebook, se trabajará en el diseño de nuevas formas de presentar las historias periodísticas, en poner más énfasis en las historias locales y en ayudar a los medios tradicionales a resolver el problema acuciante de la falta de suscriptores. Facebook prevé poner en marcha mecanismos para que los usuarios puedan suscribirse a las noticias de sus medios favoritos a través de la red social. De esta forma, logra mantener su rol de intermediario entre los medios y los lectores, y se asegura de que toda transacción se mantenga dentro de los límites estrictos de su propia plataforma.

La segunda línea del proyecto ofrecerá capacitación y herramientas para periodistas, que se sumarán a un programa online2 ya existente en que la red social promueve, en esencia, un compendio de recursos para que los comunicadores “aprovechen mejor Facebook”, “aprendan a construir y a interpelar audiencias” y “usen de manera más efectiva herramientas como Facebook Live o Instant Articles”. La idea es que haya más periodistas transmitiendo en vivo o curando noticias desde sus páginas personales o institucionales. De nuevo, el objetivo último parece estar orientado a fortalecer el lugar de Facebook como principal dispositivo emisor de noticias y contenido relevante.

El tercer objetivo está vinculado con la alfabetización mediática. Facebook promete aunar esfuerzos junto con universidades y ONGs especializadas para que los ciudadanos desarrollen enfoques críticos respecto de los medios de comunicación. Adicionalmente, y como respuesta directa a la polémica de las noticias falsas, la compañía dispondrá de un equipo permanente de periodistas que chequeará la veracidad de algunas noticias que circulan en la plataforma. Los usuarios también podrán reportar noticias falsas. Este es el aspecto más innovador del proyecto y el único que, en definitiva, parece tener una dimensión social que excede el alcance comercial de las otras dos líneas del programa. La compañía promete donaciones y soporte a organizaciones que logren desarrollar programas innovadores de lectura crítica en medios. Habrá que ver qué pasa si los programas financiados por Facebook deciden también ser críticos con el rol que las redes sociales tienen en la actual crisis del periodismo.

A este programa se suman otras acciones que la empresa ha tomado recientemente, como la prohibición a sitios de noticias falsas de ser parte de la Red de Audiencia de Facebook. Google también decidió bloquear estos sitios de su red de afiliados. En definitiva, esto significa que estos portales no podrán monetizar las visitas que reciben.

1 Puede consultarse acá: http://bit.ly/2j6l1u9

2 Puede consultarse acá: http://bit.ly/2e6EODE

 

(*) Lic. en Ciencias de la Comunicación (UBA) y Magíster en Políticas Públicas (Central EuropeanUniversity). En Twitter es @tamarcolodenco

1 Gottfried, Jeffrey y Shearer, Elisa: “News use across social media platforms 2016” en Pew Research Center. Publicado el 26 de mayo de 2016, en: http://pewrsr.ch/27TOfhz(consultado el 19/01/2017).

2 Silverman, Craig; Strapagiel, Lauren; Shaban, Hamza; Hall, Ellie; y Singer-Vine, Jeremy: “Hyperpartisan Facebook pages are publishing false and misleading information at an alarming rate” en Buzz Feed News. Publicado el 20 de octubre de 2016, en: http://bzfd.it/2k7op9u(consultado el 19/01/2017).

Pin It