La verdad no existe

El intento de combatir la desinformación con filtros, baja de contenidos e inteligencia artificial, ¿amenaza la libertad de

El intento de combatir la desinformación con filtros, baja de contenidos e inteligencia artificial, ¿amenaza la libertad de expresión?

POR CAROLINA MARTÍNEZ ELEBI (*)
@titayna

Estoy escribiendo esta nota gracias a que volvió la luz en mi casa, después del apagón más grande del que tengo registro. Cuando me senté en la notebook para empezar a escribir, me puse a pensar en qué información encontraría si gugleara “apagón” y probé a ver qué aparecía. Entre los primeros resultados —esto no los va a sorprender— había una nota sobre “la reacción de los famosos” ante el apagón y “los mejores memes” que provocó el apagón en todo el país. ¿Es esto noticia sobre el apagón? ¿Los memes son la “verdad” sobre el acontecimiento “apagón”? Un poco sí, ¿no?

Sobre cualquier tema que se nos pueda ocurrir, en Internet vamos a encontrar información con argumentos a favor y en contra, informes profundos llenos de fuentes respetables, opinión que se presenta como noticia, mentiras que se presentan como verdades incuestionables, y largas investigaciones que se presentan como verdades momentáneas dispuestas a ser refutadas por nuevos estudios. Además de todo esto, también existe la información presentada a través de la sátira, las ironías, la parodia y, sí, existen fuertes campañas de desinformación1.

En los últimos años, a raíz de esta problemática, que a pesar de ser tan antigua como la misma información, se instaló en los medios de comunicación y en el debate público como una novedad, comenzó a plantearse la necesidad de regular los contenidos que se publican y circulan en las redes sociales (lo que se extendió también a regular los contenidos publicados por los medios de comunicación). No está de más aclarar que cuando digo “regular” no me refiero solo a las leyes, decretos o normas de ese estilo, sino que lo uso como lo propone Lawrence Lessig en su libro “Las leyes del ciberespacio” en el que explica que así como las leyes, existen otras tres formas de regulación, que funcionan como distintos tipos de limitaciones. Estas otras formas, son: el mercado, las normas sociales y la arquitectura o el código.

En el caso de la desinformación, ya existen leyes en el mundo que intentan regularla. Uno de los ejemplos es la ley aprobada por el Parlamento de Rusia que habilita a que los tribunales multen o encarcelen a los responsables de los medios de comunicaciones que “falten el respeto a la sociedad, el gobierno, a los símbolos de gobierno, a la Constitución, o a los cuerpos gubernamentales”. Otro caso es el de Francia que, en 2018, sancionó una ley que le da la tarea a un único tribunal de recibir denuncias de emergencia por noticias falsas durante la campaña electoral y debe decidir, en menos de 48 horas, si se trata de un contenido falso que tiene como objetivo desinformar. Si la decisión del tribunal es que esa información es falsa, el juez puede dar la orden de que se elimine2. En Argentina, mientras tanto, la Cámara Nacional Electoral presentó la iniciativa de “Compromiso Ético Digital”, firmado junto con los 39 partidos nacionales habilitados para la elección presidencial, las plataformas Google, Facebook, Twitter y WhatsApp, y Agence France Press (AFP)3. A pesar de los intentos por legislar para regular las campañas de desinformación, esto no se ha concretado —afortunadamente— porque se teme el impacto que la medida podría tener sobre el derecho a la libertad de expresión.

Cuando no regula el Estado…

Entonces, mientras desde los tres poderes del Estado intentan responder a la demanda de algunos sectores que buscan regular las campañas de desinformación, el mercado ya está tomando sus propias medidas. Sin ir más lejos, la existencia de Chequeado en Argentina es una de las respuestas del mercado a esta problemática.

Entre las iniciativas que se presentan, algunas tienen que ver con la regulación a través del código, de la tecnología. Por ejemplo, a comienzos de junio, YouTube anunció que comenzaría a eliminar contenidos que promuevan el discurso de odio, negacionista o que promuevan teorías falsas (como que la Tierra es plana), información errónea, o curas milagrosas para enfermedades graves que no tuvieran base científica4. Esto surgió meses después de que se conociera que uno de los motivos por los que teorías como la del terraplanismo se popularizaron es debido al algoritmo de recomendación de YouTube5. Según un ex ingeniero de Google que participó del desarrollo de ese algoritmo, este tipo de videos son muy exitosos, al igual que las campañas de desinformación que se comparten por Facebook y WhatsApp mucho más que las noticias verificadas como verdaderas.

De acuerdo con este ingeniero, el motivo del éxito de estos contenidos es el algoritmo. ¿Sólo eso? Me animo a afirmar que si se fortaleciera el sistema educativo, principalmente la capacidad de analizar en interpretar distintos tipos de discursos, así como el pensamiento crítico, las campañas de desinformación no serían tan exitosas.

La “verdad” privatizada

Desde los orígenes de Internet, el objetivo era que fuera una red libre, abierta y descentralizada, que, entre otras cosas, permitiera el ejercicio de derechos como el de la libertad de expresión. Hoy nada más lejos de esa realidad, son cada vez menos las empresas que concentran el control del ecosistema de Internet, desde su infraestructura hasta sus contenidos.

Las preguntas sobre qué es verdadero y qué no lo es; si existe o no la verdad; si la verdad tiene anclaje en lo “real” o si es una construcción social, son todas preguntas muy válidas pero del orden de lo filosófico, y no van a ser desarrolladas acá. Sin embargo, sí me interesa poner sobre la mesa esta pregunta: ¿Quién determina qué es verdadero y qué no lo es? Y, ¿puede un sistema de Inteligencia Artificial definir qué es verdadero y qué no? Si todavía no puede diferenciar un documento fotográfico histórico de una imagen de abuso infantil6, ¿puede diferenciar una sátira de una mentira? ¿Qué pasaría si empresas como Facebook, WhatsApp, Google, YouTube, Twitter, entre servicios a través de los cuales nos mantenemos informados y conectados en la actualidad, dejaran que los algoritmos estuvieran a cargo de decidir si una información debe ser etiquetada como “verdadera”, “falsa”, “engañosa”, etcétera? Actualmente, los algoritmos ya participan del primer filtro para que luego un equipo de personas analice los contenidos marcados y determine si eso es verdadero o falso para después definir si puede seguir viralizándose sin obstáculos o si debe disminuirse su alcance.

En Argentina esto sucede con Facebook y Chequeado. Sin embargo, existen iniciativas que se proponen automatizar por completo el chequeo de los contenidos para determinar si algo es verdadero o falso, como es el caso del Chequeabot7. A pesar de las buenas intenciones que puedan tener las organizaciones que trabajan en fact checking, es importante advertir sobre los riesgos que trae este tipo de iniciativas para el ejercicio de la libertad de expresión. Para decirlo llanamente, es peligroso que alguien o un reducido grupo de personas —y de algoritmos— decida qué es verdadero, qué es falso y que tenga el poder de actuar sobre la circulación de esos contenidos. Sobre todo, cuando sabemos que la verdad no existe. “No hay hechos, hay interpretaciones”, ya se dijo por ahí…

Libertad de expresión y la importancia de la educación

En 2011 la Organización de las Naciones Unidas declaró el acceso a Internet como un Derecho Humano y, en su declaración, condenó a los países que aplicaran filtros o bloquearan contenidos de la red. Ese mismo año, el 1 de junio, se había publicado también la Declaración Conjunta sobre Libertad de Expresión e Internet8 en el que, en su punto 3 sobre “Filtrado y bloqueo”, inciso b) dice: “Los sistemas de filtrado de contenidos impuestos por gobiernos o proveedores de servicios comerciales que no sean controlados por el usuario final constituyen una forma de censura previa y no representan una restricción justificada a la libertad de expresión”.

La importancia del ejercicio de la libertad de expresión, está muy bien expresada en las palabras del actor inglés Rowan Atkinson sobre el derecho a insultar9: “El arma más fuerte contra el discurso de odio, no es la represión, es más discurso”. En el caso de las campañas de desinformación creo, al igual que Atkinson, que la mejor respuesta es la de contrarrestar esa desinformación con más información, pero nunca con la censura.

Acá es donde entra el valor de la educación y la importancia de su fortalecimiento para que las sociedades sean cada vez más capaces de realizar una lectura crítica de la información que les llega y que puedan interpretar todo tipo de discursos. Que todas las personas tengan las herramientas para discernir si eso que ven, que leen, que escuchan, está más cerca de lo “verdadero” que de lo “falso”. Que puedan diferenciar opinión de información; que sepan que la información nunca es objetiva sino que se construye; que los datos no son objetivos sino que se eligen de entre un montón de otros datos que quedan afuera; que detrás de cada información hay intereses en juego; que en la sátira y en los memes también hay verdades.

El problema que estamos afrontando como sociedad es que mientras se intenta enfrentar a las campañas de desinformación con filtros, con baja de contenidos y con inteligencia artificial desarrollada por empresas, el sistema educativo está siendo desfinanciado año tras año10. Entonces, mientras no se está invirtiendo en ciudadanos capaces de discernir por sus propios medios qué es “verdadero” y qué es “falso”, se despliegan regulaciones que censuran y grupos de privados que le van a decir a los ciudadanos qué es verdadero y qué es falso. Sin querer ser apocalíptica, sí creo que es para (pre)ocuparse.


1 “Desinformación” entendida como “contenido fabricado, sacado de contexto o con hechos tergiversados para cambiarle el sentido que circula en distintos medios, pero sobre todo en redes sociales”. Voy a utilizar el término “desinformación” y no el de “noticias falsas” o “fake news”, de acuerdo con lo planteado por Reverso https://reversoar.com/preguntas-frecuentes/

2 “Partidos políticos y empresas acuerdan contra la desinformación en la campaña”, por Brenda Struminger, publicado el 2 de junio de 2019 en La Nación. Disponible en: https://www.lanacion.com.ar/politica/un-acuerdo-contra-las-noticias-falsas-nid2253841 (consultado en junio de 2019).

4 “YouTube anuncia que eliminará miles de videos a partir de un cambio en sus políticas”, publicado por Univisión el 5 de junio de 2019. Disponible en: https://www.univision.com/noticias/tecnologia/youtube-anuncia-que-eliminara-miles-de-videos-a-partir-de-un-cambio-en-sus-politicas (consultado en junio de 2019).

5 “El terraplanismo está más vivo que nunca. Y en gran medida es gracias a YouTube”, publicado por Mohorte el 20 de noviembre de 2018, en Xataka. Disponible en: https://magnet.xataka.com/que-pasa-cuando/terraplanismo-esta-vivo-que-nunca-gran-medida-gracias-a-youtube (consultado en junio de 2019).

6 “Facebook elimina una foto famosa de Vietnam y desata un debate sobre la censura”, por Mark Scott y Mike Isaac, publicado en The New York Times el 15 de septiembre de 2016. Disponible en: https://www.nytimes.com/es/2016/09/15/facebook-elimina-una-foto-famosa-de-vietnam-y-destata-un-debate-sobre-la-censura/ (consultado en junio de 2019).

9 “Rowan Atkinson on England and Freedom of Speech”, publicado el 6 de julio de 2013. Disponible en: https://www.youtube.com/watch?v=h3UeUnRxE0E (consultado en junio de 2019).

10 “La educación empobrecida”, por Página12 el 24 de octubre de 2018. Disponible en: https://www.pagina12.com.ar/150792-la-educacion-empobrecida (consultado en junio de 2019).

(*) Licenciada en Ciencias de la Comunicación (UBA) especializada en DDHH y tecnología. Trabaja en Fundación Vía Libre y administra el canal de Telegram https://t.me/ddhhytecno en el que difunde información sobre estos temas. Además, es docente adhonorem en la UBA.