En una reunión de Zoom, un profesor no podía evitar que la plataforma, a través de su opción de cambio de fondo (background) prefiriera eliminar su cabeza que el fondo. El conjunto de algoritmos que movían dicha opción, muy innovadora y que muchos usan para ocultar el dormitorio desde donde hacen tele-educación o tele-trabajo, no “sabía” qué hacer con el rostro de una persona afroamericana, de tez oscura.
Pero, ¿dónde está la falla? ¿Está en los datos que alimentaron los motoros de Machine Learning de este tipo de herramientas? ¿O en los mismos algoritmos? La mirada más hegemónica sobre las tecnologías digitales las colocan como inocuas, como que no hay nada de “social” en los miles de líneas de código que están detrás de esas máquinas. Pero allí siguen habiendo casos y casos de algoritmos que se “equivocan” y que puede llevar, por ejemplo, a que una persona sea injustamente acusada de un crimen que no cometió.
Lo peor es que los gobiernos cada vez se apoyan más y más en este tipo de herramientas, que vienen del sector privado, para tomar decisiones. Porque suena además prometedor: “esmartizar” la ciudad a través del uso de plataformas de inteligencia artificial, ordenar el tráfico, predecir la criminalidad, la violencia, la justicia, la asignación de recursos. Pero no sabemos cómo funcionan estas tecnologías. Las asumimos, las naturalizamos, las consideramos como algo que hay que usar. Pensemos en educación cuando un profesor o profesora le pide a sus estudiantes que “busquen en Google”, pero sin poner sobre la mesa qué es Google, cuál es el negocio de Google, discutir los resultados de Google, sus sesgos, la ideología que se encuentra detrás.
Es allí donde entra el libro Race after Technology de Ruha Benjamin. Benjamin, R. (2019). Race After Technology: Abolitionist Tools for the New Jim Code, Polity Press.
Ruha Benjamin no solos habla sobre cómo las matrices racistas se reproducen en la concepción de los algoritmos que se encuentran dentro de todo este conjunto de tecnologías, tanto consciente como inconscientemente, sino que además cómo el racismo se vuelve tecnología. Benjamin parte de una crítica a la thick description de Geertz y aboga (a través de John Jackson*) por una thin description, una mirada humilde sobre lo que el antropólogo o antropóloga puede llegar a ver, leer y escribir sobre la realidad que le importa analizar y que lo que tenemos son retazos sobre los que hay que construir: una entrevista semi-estructurada, un video, una foto, un jpg, una pieza de código de programación.
Al final, sí, no hay dos momentos. Si el racismo es una estructura, una matriz presente que organiza la sociedad, ¿por qué no aparecería en los códigos de programación que se encuentran detrás de estas plataformas?
Así, no valdría la pena hablar solo de que la tecnología no es neutral, o de si es mala o buena (lo cual es un debate más moral que otra cosa), sino aplicar también una lectura crítica, desde la cultura, no sobre las interfaces, el front-end, lo que vemos, sino también sobre los motores que la hacen mover.
(*) Jackson, J. L. (2013). Thin Description. Amsterdam University Press.