Palabra Pública - N°13 2019 - Universidad de Chile

volúmenes sobre el desarrollo de este campo, desde la antigüedad clásica hasta nuestros días. Quizás por eso, cuando Seymour Papert y Gerald Sussman –del Massachusetts Institute of Technology (MIT)- se propusieron conectar una cámara a un computador y encontrar la manera en que este describiera lo que veía, estaban seguros de que era un problema que po- drían resolver durante el verano de 1966. El fracaso del proyecto dio origen a lo que hoy se conoce como computer vision o “visión artificial” en castellano, nombre curioso este último, pues su- giere la existencia de una mirada natural, capaz de aprehender una realidad independiente del observa- dor, sea este un ser humano o una máquina. El eco al realismo cartesiano inserta los problemas visuales asociados al reconocimiento facial y las máquinas que miran en una larga genealogía de técnicas orientadas a representar el mundo “tal cual es”, como la cámara fotográfica y, desde luego, la perspectiva. Negando su propia artificialidad, W. J. T. Mit- chell explica que la gran victoria de la perspectiva fue su capacidad de convencer a toda una civiliza- ción de que poseía “un sistema para la producción automática y mecánica de verdades”. Esta ilusión no hace más que incrementarse con el advenimiento de la inteligencia artificial y los recientes desa- rrollos en el campo del reconocimiento facial, que podrían suponer que el pro- blema se ha zanjado. Sin embargo, como advierte Kate Crawford –cofundadora y directora de investigación en el AI Now Institute de la Universidad de Nueva York –, “el desafío que presentan las imágenes y su significado es mucho más político que técnico. Cuando Magritte dice ‘esto no es una manzana’ está haciendo un pun- to sobre la relación arbitraria y política entre la imagen y su significado; pero si pasas la imagen por un algoritmo entre- nado para reconocer características de la fruta, te dirá: ‘No, esto sí es una manza- na. Es una manzana verde y roja’”. Ejemplos de algoritmos incapaces de leer el contexto de una imagen, hacer des- cripciones políticamente inapropiadas o decididamente racistas -como cierto software de Goo- gle que etiquetaba a las personas negras como “gori- las”- son comunes. Cathy O’Neil, autora de Weapons of Math Destruction, define un algoritmo como una opinión envuelta en matemáticas: están construidos para servir a los propósitos de quien los ha diseñado. Sin embargo, los algoritmos son frecuentemente pre- sentados como datos objetivos. Al igual que la pers- pectiva, esta es una ilusión basada en la matemática y su peligro reside en la capacidad para ocultar su propia artificialidad. Cualquier sistema de reconocimiento facial está construido bajo ciertas ideas específicas respecto de qué es un rostro y qué tipo de información es posible extraer de él, una cosmovisión anclada en la expe- riencia específica de quiénes lo construyeron y la ma- nera en que han definido sus objetivos. Y si nuestra aproximación a la tecnología continúa siendo acrí- tica, corremos el riesgo de naturalizar los prejuicios de otros como propios. En un ámbito tan delicado y propenso a actos arbitrarios de discriminación como es el accionar policial, el tecnochovinismo puede tener efectos devastadores, favoreciendo la institu- cionalización de sesgos de raza, clase, género, edad y etnicidad. ¿Equivale eso a mayor seguridad? “Cualquier sistema de reconocimiento facial está construido bajo ideas específicas respecto de qué es un rostro y qué tipo de información es posible extraer de él, una cosmovisión anclada en la experiencia específica de quiénes lo construyeron […]. Y si nuestra aproximación a la tecnología continúa siendo acrítica, corremos el riesgo de naturalizar los prejuicios de otros como propios”. 58

RkJQdWJsaXNoZXIy Mzc3MTg=