La tecnología de reconocimiento facial: donde muere la libertad

La implementación de nuevas tecnologías para el reconocimiento facial representa un desafío fundamental en términos de libertades individuales

La implementación de nuevas tecnologías para el reconocimiento facial representa un desafío fundamental en términos de libertades individuales y derechos civiles. Sin embargo, las compañías avanzan sin marcos normativos y ponen en riesgo libertades íntimas.

POR EMILIANO FALCÓN (*)
@feniciano

Las tecnologías de reconocimiento facial han llegado para quedarse. Lo que parecía reservado a la ciencia ficción se torna cada vez más real. El uso de software y programas de computadora que detectan los rasgos faciales, y con ello nuestra identidad, se está esparciendo rápidamente, tanto en el sector público como en el sector privado. Pero, ¿de qué hablamos cuando hablamos de reconocimiento facial?

En primer lugar, es necesario definir esta tecnología1 como un tipo de identificación biométrica. Siguiendo a la Electronic Frontier Foundation, los marcadores biométricos son marcadores únicos que identifican o verifican la identidad de una persona utilizando características físicas o de comportamiento. Los sistemas de reconocimiento facial usan sistemas basados en complejos algoritmos para detectar estos detalles específicos y distintivos de las caras de las personas a partir de una foto, una serie de fotos, o un segmento de video. Estos detalles, que pueden ser la distancia entre los ojos, la forma de la pera, o la traza de líneas imaginarias sobre la cara, son luego convertidos en una representación matemática y comparados con información de otras caras previamente recolectados y guardados en una base de datos. Toda esta información se utiliza para crear “plantillas de caras”, que solo incluyen esos detalles. Así, a cada persona le corresponde una. Ya con el sistema en funcionamiento, estas plantillas son utilizadas para reconocer e identificar a dichas personas en nuevas fotos o vídeos. Algunos sistemas incluso vuelven a aprender de este nuevo material mediante un sistema de recompensas y castigos de acuerdo a cuán precisa fue la identificación. De este modo, mientras más información tiene, el sistema se vuelve más poderoso. Más preciso. Y más peligroso.

En este mismo momento, tanto pequeñas start-ups como grandes compañías tecnológicas, como Amazon, están en el negocio de vender y comercializar esta tecnología a escuelas, centros comerciales, desarrolladores de aplicaciones, aeropuertos, entre otros. Apple lo introdujo como mecanismo de autenticación para verificar la identidad de sus usuarios cuando quieren acceder a los dispositivos que vende2. Google y
Facebook están aplicando para obtener patentes de métodos relativos a esta tecnología3. Del mismo modo, compañías tradicionales de venta al público la están impulsando en espacios públicos y privados4. Y todos ellos lo hacen sin darnos derechos a decidir si queremos ser parte de su siembra de aplicaciones y su cosecha de rasgos faciales.

A su vez, los avances exponenciales en materia de procesamiento de datos hacen que estos sistemas sean económicos y relativamente fáciles de implementar. La caída del costo de la memoria de las computadoras, el aumento de las capacidades de almacenamiento de información, y la infinidad de cámaras de vigilancia conectadas a una misma red elimina el límite tradicional en la capacidad de los gobiernos para vigilar y castigar. Es un seguimiento masivo y persistente; en tiempo real y retroactivamente; desde que salimos y volvemos a nuestras casas (e incluso dentro). Nuestra vida grabada y vigilada. Ostensiblemente, los despliegues más amenazantes y distópicos de la vigilancia vía reconocimiento facial que existen surgen de su uso por agencias gubernamentales5. La tecnología de reconocimiento facial en un mundo cubierto por cámaras habilita una perfecta vigilancia gubernamental. Esto resulta muy problemático. Primero, la perfecta aplicación de la ley no es deseable6. Segundo, la eliminación completa del anonimato y la privacidad en el espacio público (y posiblemente incluso en algunos espacios privados) supone la desaparición total de la “oscuridad práctica”7, en tanto noción de que hay un derecho a la privacidad en aquella información que es pública, más difícil de obtener, con la que organizamos inconscientemente nuestra vida. Tercero, esta tecnología otorga a agencias gubernamentales como la policía y las agencias de inteligencia, que por ejemplo en Argentina son de por sí oscuras8, discriminatorias9, y capaces de ejercer la fuerza sin control10, un poder sin precedentes para crear registros completos y constantes de movimientos, intereses, y asociaciones de personas. La distopía puede ser real; y vivir en un mundo donde constantemente somos vigilados, donde todo queda registrado y del cual no podemos escondernos está a la vuelta de la esquina.

Los investigadores Woodrow Hartzog y Evan Selinger, reconocidos en ámbitos académicos donde se estudia la privacidad y la protección de los datos personales, alertan sobre el impacto de estas tecnologías distópicas en todos y cada uno de los ámbitos de nuestra. Ellos escriben que “la tecnología de reconocimiento facial es el mecanismo de vigilancia más peligroso jamás inventado”11 y que “la mera existencia de sistemas de reconocimiento facial, que a menudo son invisibles12, perjudica las libertades civiles, porque las personas actuarán de manera diferente si sospechan que están siendo vigiladas.”

En su intento de explicar la peligrosidad de estos sistemas, los autores bosquejan una lista de los daños que inevitablemente nos sucederán en un mundo donde lo único que no podemos esconder sea lo primero que nos identifique:

  • Impacto desproporcionado en personas de color13, y otras poblaciones vulnerables14 y minoritarias.
  • Peligros para el debido proceso legal, que podrían incluir una degradación15 del principio de que “todos somos inocentes hasta que se demuestre lo contrario” a que todos seamos “personas que aún no han sido declaradas culpables de un delito.”
  • Provisión de herramientas para aumentar el hostigamiento, el acoso16, y la violencia.
  • Negación de derechos y oportunidades fundamentales, como la protección contra “el seguimiento arbitrario de los movimientos, hábitos, relaciones, intereses y pensamientos”17.
  • El sofocante peso18 de la implacable y perfecta aplicación de la ley.
  • La normalización de la eliminación de la oscuridad práctica19.
  • La amplificación del capitalismo de vigilancia20.

Además de todos estos problemas, estas tecnologías están profundamente sesgadas racialmente. Investigadoras del MIT han descubierto que los algoritmos que subyacen estas tecnologías son malos e imprecisos para reconocer los rostros de las mujeres de piel oscura21. La Unión Americana de Libertades Civiles (ACLU) ha demostrado que Rekognition, el software de reconocimiento facial que Amazon vende y provee indiscriminadamente a quien quiera comprarlo, incorrectamente “reconoció” a 28 miembros del Congreso y los identificó como personas que habían sido arrestadas22. Y dentro de esas 28 personas mal identificadas, 40% fueron personas de color. Un sesgo racial importante, sobre todo considerando que solo el 20% de las personas en el Congreso pertenecen a esa comunidad.

Pero incluso si la tecnología tuviera una precisión perfecta, su uso estaría en las antípodas de lo que queremos y buscamos para una sociedad libre. Cuando las personas son conscientes de que sus movimientos están siendo capturados por una cámara que transmite constantemente el contenido con el fin de que la policía investigue delitos, lo cierto es que la gente actúa distinto. Ello no es porque la gente quiera cometer delitos, sino porque el seguimiento e identificación persistentes en tiempo real e históricamente tiene el efecto societario de debilitar el ejercicio de la libertad. A esto se lo conoce como “chilling effect”23
y se relaciona con la poca predisposición que tienen las personas a ejercitar sus legítimos derechos y libertades cuando saben que están siendo vigilados. El control perfecto de la población es el sueño de un gobierno oscuro y autoritario; no de uno abierto y democrático.

Estas cuestiones son importantes porque no estamos hablando de la venta de ropa, estantes, o pañales. La libertad sindical, la libertad de asociación, la libertad de expresión, la libertad de prensa, la libertad sexual, y la libertad religiosa se encuentran entre los derechos más importantes para las sociedades libres. Y son, a su vez, los más amenazados por la constante vigilancia que reconoce algo tan simple, y tan expuesto, como nuestras caras. Imaginemos lo peligrosa que sería una herramienta capaz de distinguir la orientación sexual24 de las personas en manos de los Bolsonaros25 del mundo.

Pero mientras la tecnología se desarrolla rápidamente, lo que permite el despliegue generalizado de la vigilancia en base al reconocimiento facial en todas las áreas de nuestras vidas, la ley y las regulaciones no han logrado mantener el ritmo. En Estados Unidos no existe una ley federal que aborde explícitamente la tecnología, y la gran mayoría de los estados no tienen leyes que protejan contra el abuso de esta tecnología. En Europa, por el contrario, la nueva regulación de datos personales, el GDPR, parecería ser una barrera a la manera en la que estos sistemas vienen funcionando26. Basta ver a China para ver una sociedad donde la vigilancia es total. Allí, un sistema de “crédito social” basado en el comportamiento de las personas, cuyo mayor activo son el despliegue de cámaras, estará en completo funcionamiento hacia el 202027.

Mientras tanto, los trabajadores de las empresas que construyen estas tecnologías distópicas se organizan28 y alzan la voz29, pidiendo a sus ejecutivos que paren de vender estos productos a las agencias policiales30. En una conferencia de la revista Wired hace algunas semanas, Jeff Bezos defendió su accionar, argumentando que si compañías como Amazon rechazan los contratos gubernamentales, “[EEUU] va a estar en problemas”31. Asimismo, Bezos dijo que las nuevas herramientas tecnológicas y controvertidas, como el reconocimiento facial, son como la imprenta en el sentido de que tienen “dos caras.” Así como “el libro fue inventado” y “la gente puede escribir libros realmente malvados, liderar malas revoluciones con ellos y crear imperios fascistas,” ello no significa que “el libro sea malo” (sic). En el mismo sentido argumentó que la sociedad creará su propia “respuesta inmune” y “eventualmente” mitigará cualquier daño derivado de la uso de estas herramientas de vigilancia.

El día después de que Bezos hiciera estos asombrosos comentarios, un empleado anónimo de Amazon publicó una carta abierta en la que pedía a su empleador que dejase de vender tecnología de vigilancia a la policía32. Las preocupaciones no son hipotéticas o conjeturales. El empleado escribió: “Amazon está diseñando, comercializando, y vendiendo un sistema para vigilancia masiva peligrosa en este momento”. Un sistema inmunológico puede responder a los ataques, pero algunos ataques, sobre todo aquellos que involucran nuestras partes que más nos identifican, pueden ser mortales.

Woodrow Hartzog y Evan Selinger demandan una prohibición de esta tecnología puesto que es la “herramienta perfecta para la opresión”. Los efectos sociales y culturales que tiene en la sociedad pueden llegar a ser difíciles de controlar. Organizaciones defensoras de las libertades y derechos civiles están alertando contra su uso y despliegue indiscriminado33. El miedo es que para cuando queramos acordarnos ya sea demasiado tarde34


1 Face Off. Law Enforcement use of face recognition technology. Jennifer Lynch. Electronic Frontier Fundation, Febrero de 2018. https://bit.ly/2UL6W5T
2 Beware of Apple´s New Face ID. Kade Crockford, Wbur. 19/09/2017 https://wbur.fm/2ElGGZX

3 Para ver la aplicación de las respectivas patentes https://bit.ly/2QYirYm y https://bit.ly/2EqgzBd

4 Thousands Of Stores Will Soon Use Facial Recognition, And They Won’t Need Your Consent. Leticia Miranda, Buzzfeed. 17/08/2018 https://bit.ly/2wdJoe7

5 What´s wrong with public video surveillance? ACLU https://bit.ly/2fqbY6u

6 Do We Really Want Perfect Law Enforcement? Daniel Solove, Concurring Opinions. 12/10/2005 https://bit.ly/2rGdtRM

7 A History of Practical Obscurity: Clarifying and Contemplating the Twentieth Century Roots of a Digital Age Concept of Privacy. Patrick File. Heinonline. 2017. https://bit.ly/2PEcxHe

8 La maniobra contra Casanello. Raúl Kollman, Página 12. 02/10/2018 https://bit.ly/2IAoyvC

9 La violencia que discrimina. Horacio Cecchi, Página 12. 18/12/2013 https://bit.ly/2PGtmBn

10 Licencia para matar. Página 12. 04/12/2018 https://bit.ly/2rmh6Mt

11 Facial Recognition Is the Perfect Tool for Oppression. Woodrow Hartzog. Medium. 02/08/2018. https://bit.ly/2KwZtkf

12 You are entering an ephemeral bioallowed data capture zone. Judith Donath. Medium. 23/07/2018. https://bit.ly/2SRH9XE

13 The Color of Surveillance. Georgetown Law. 22/06/2017. https://bit.ly/2SROHtA

14 Facial-Recognition Software Might Have a Racial Bias Problem. Clare Garvie y Jonathan Frankle. The Atlantic. 07/04/2016. https://bit.ly/2jxi9WM

15 Our Bodies or Ourselves. Anne-Marie Slaughter y Stephanie Hare. Project Syndicate. 23/07/2018. https://bit.ly/2SP3Lbq

16 Facial recognition service becomes a weapon against Russian porn actresses. Kevin Rothrock. Ars Technica. 26/04/2016. https://bit.ly/2SSEHAu

17 Anonymity, Faceprints, and the Constitution. Kimberly L. Wehle. University of Baltimore – School of Law. 2014. https://bit.ly/2rDDAbZ

18 22 eerie photos show how China uses facial recognition to track its citizens as they travel, shop — and even use toilet paper. Tara Francis Chan, Business Insider. 12/02/2018.https://read.bi/2Ezkc8u

19 Obscurity and Privacy. Evan Selinger y Woodrow Hartzog. Routledge Companion to Philosophy of Technology. 21/05/2014. https://bit.ly/2Ezlgt0

20 Big Other: Surveillance Capitalism and the Prospects of an Information Civilization. Shoshana Zuboff. https://bit.ly/2pDCQlQ

21 Algoritm Bias Persists. Project Gender Shades. Mit Media Lab. https://bit.ly/2OWTcWi

22 Amazon’s Face Recognition Falsely Matched 28 Members of Congress With Mugshots. Jacob Snow, ACLU. 26/06/2018. https://bit.ly/2OkETHe

23 CLU v. NSA: How Greater Transparency Can Reduce the Chilling Effects of Mass Surveillance. Paulina Perlin. Media, Freedom&Information Access Clinic, Yale Law School. 06/12/2017. https://bit.ly/2UMgPA4

24 Facial recognition presents threat to LGBT community. Sam Brake Guia, The sociable. 21/09/2017. https://bit.ly/2SPbV3x

25 Son of Jair Bolsonaro, fascist leading Brazil´s presidential polls, tweets fake poster linking LGBT people to pedophiles. Glenn Greenwald y Victor Pugy. https://bit.ly/2EoqXsX

26 Facial recognition technology in the EU: does GDPR spell the end. Taylor Wessing. Julio de 2018. https://bit.ly/2QvWj8i

27 Planning Outline for the Construction of a Social Credit System (2014-2020). Rogier Creemers, China Copyright and Media. 14/06/2014. https://bit.ly/1zO58fV

28 Tech Workers Coalition https://bit.ly/2SU3Iez

29 Amazon Workers Demand Jeff Bezos Cancel Face Recognition Contracts With Law Enforcement. Gizmodo, Kate Conger. 21/06/2018. https://bit.ly/2KbKJeA

30 Microsoft employees call on company to cancel contract with ICE. Rachel Lerman, Seattle Times. 19/06/2018. https://bit.ly/2UKW8Vc

31 Amazon´s Jeff Bezos says tech companies should work with the Pentagon. Wired. 15/10/2018. https://bit.ly/2CKDSW7

32 I’m an Amazon Employee. My Company Shouldn’t Sell Facial Recognition Tech to Police. 16/10/2018 https://bit.ly/2CAJmSm

33 Letter from nationwide coalition to Amazon CEO Jeff Bezos regarding rekognition. ACLU. https://bit.ly/2ChbhGK

34 China has started ranking citizens with a creepy ‘social credit’ system — here’s what you can do wrong, and the embarrassing, demeaning ways they can punish you. Alexandra Ma, Business Insider. 29/10/2018. https://read.bi/2zlCkiw