El racismo de los algoritmos contra los refugiados, por Bruno Nathansohn
Twitter:@Latinoamerica21
En la actualidad, la dinámica migratoria mundial está impregnada por el desarrollo y la aplicación de dispositivos tecnológicos digitales cada vez más sofisticados e invasivos, que condicionan en gran medida el destino de las personas e influyen en las estrategias de poder. En el marco de la ingeniería social, las tecnologías digitales potencian la discriminación mediante recursos de medición de las dimensiones biológicas y del comportamiento humano. También permiten relacionar estrategias políticas que van desde la microrrealidad del individuo hasta la macrorrealidad de las relaciones de poder transnacionales.
La guerra entre Rusia y Ucrania ya ha provocado el desplazamiento de más de ocho millones de personas hacia la Unión Europea. Ante el desastre que se avecinaba, la Comisión Europea propuso activar, en febrero de 2022, la Directiva de Protección Temporal que tiene como objetivo proporcionar protección inmediata a los desplazados. Esta Directiva, creada en 2001, nunca se había aplicado antes a pesar de que masas de refugiados ya habían llamado a las puertas del bloque. Para algunos analistas, existe una resistencia política a aplicar determinados mecanismos legales, basada en los prejuicios contra las personas de países no europeos, como atestigua el profesor Dr. Meltem İneli Ciğer de la Facultad de Derecho de la Universidad Suleyman Demirel.
La decisión de aplicar la Directiva converge con la propia política de información de la UE en materia de gestión de fronteras, movilidad humana y asilo, que se basa en la vigilancia permanente de los grupos considerados indeseables. Este marco político-jurídico se expresa en los propios dispositivos tecnológicos utilizados con el fin de crear barreras, en lugar de facilitar el acceso de las personas y garantizarles sus derechos como lo establecen los tratados internacionales que regulan el asilo y refugio.
Teniendo en cuenta la diferencia de trato con los refugiados en función de su raza, etnia, cultura y nacionalidad, da la impresión de que existe una cierta suspensión de los procedimientos de identificación de los refugiados ucranianos, debido a la rápida movilización de los miembros de la UE en la recepción de los mismos.
Por otro lado, las oleadas humanas que desde los países centroamericanos se dirigen hacia Estados Unidos huyen de la violencia, el hambre y el cambio climático.
El trato que se otorga a los migrantes latinoamericanos que buscan refugio depende del gobierno de turno, pero invariablemente son objeto de políticas de contención a través de dispositivos de vigilancia de seguridad que operan en silencio y expresan desprecio, prejuicios sociales y racismo.
En 2019, el expresidente Donald Trump reforzó la idea de construir el muro entre EEUU y México, pero presentando una solución diferente, refiriéndose a un smart-wall: «Los muros que estamos construyendo no son muros medievales. Son muros inteligentes diseñados para satisfacer las necesidades de los agentes fronterizos de primera línea».
De hecho, las normas y procedimientos de vigilancia siguen vigentes y desnudan la desigualdad de trato entre los refugiados ucranianos y los de países no europeos, y lo mismo ocurre a la hora de señalar a los migrantes latinoamericanos. Esto se evidencia en el impacto de los algoritmos en la dinámica de las migraciones, en lo que se presenta como un aspecto esencial en cualquier proceso de identificación, que es clasificar, segregar, privilegiar o castigar a determinados grupos sociales.
Sin embargo, es evidente el sesgo de los códigos programados para la identificación de perfiles personales, caracterizados por condiciones raciales, características de comportamiento y su relación con la gobernanza de las migraciones en su conjunto. Esta tendencia abarca un amplio arco de acciones e instituciones que se ocupan de la vigilancia para el seguimiento y el control. Se trata de una situación identificada por expertos y movimientos activistas como la investigación académica de Joy Buolamwini, del Instituto Tecnológico de Massachusetts (MIT), y que fue presentada en el documental Coded Bias.
En una investigación llevada a cabo en el MIT Media Lab, Buolamwini, que es negra, colocó su cara frente a los dispositivos de reconocimiento facial, pero no fue identificada. Sin embargo, cuando se colocó una máscara blanca en la cara fue reconocida inmediatamente.
La conclusión es que existe un sesgo en la programación algorítmica en los sistemas de reconocimiento facial, basados en la Inteligencia Artificial. Es decir, los algoritmos están dirigidos por procesos de clasificación, dividiendo los grupos de personas que merecen ser reconocidos de los que son literalmente excluidos por el sistema.
Por lo tanto, existe un sesgo en la estrategia política de la UE para discriminar a grupos enteros, en su mayoría procedentes de países pobres, que a menudo huyen de conflictos y que buscan refugio en territorio europeo. En relación con esta cuestión, la UE articula varios dispositivos jurídicos, políticos y tecnológicos para reforzar sus fronteras exteriores e impedir que estos grupos accedan a la UE, entre los que se encuentran organismos dedicados a la recogida, organización e intercambio de información, como la Base de Datos Europea de Asilo – Sistema de Comparación de Huellas Dactilares (Eurodac), el Sistema de Información de Schengen (SIS II); y el Sistema de Información de Visados (VIS). Se trata de agencias que se conectan con otras que ejercen un poder coercitivo efectivo, como el Sistema Europeo de Vigilancia de Fronteras (Eurosur) y los sistemas de Registro de Nombres de Pasajeros (PNR).
*Lea también: El campeón de la Libertadores y el bolsonarismo, por Guilherme Reis
Al mismo tiempo, los programas de asistencia a los refugiados dependen de las políticas y sistemas nacionales destinados a identificar el perfil de las personas que entran en los países de acogida. En otras palabras, la racialización algorítmica estaría, en estos términos, asociada a los intereses de la seguridad nacional.
Se produce, por tanto, una clasificación fenotípica y social a efectos de visibilizar personas y grupos a los que se permite el acceso a los bienes comunes de la ciudadanía, o de invisibilidad de los indeseables. Esta preocupación fue expuesta en el informe de la Casa Blanca, publicado en 2014, durante el gobierno de Obama, titulado Big Data: Seizing Opportunities, Preserving Values, sobre los usos de datos personales con el objetivo de privilegiar o excluir a grupos de personas por su condición racial y de clase, principalmente en relación con «la vivienda, el crédito, el empleo, la salud, la educación y el mercado».
Según el Centro para la Innovación de la Gobernanza Internacional de Canadá, ello puede extenderse a los ámbitos de la inmigración, la seguridad pública, la policía y el sistema judicial, «como contextos adicionales en los que el procesamiento de big data algorítmico afecta a los derechos y libertades civiles.»
El color y otros elementos fenotípicos anticipan, o ejercen, una preclasificación de los seres humanos que merecen privilegios, diferenciándolos de los que ni siquiera tienen la posibilidad de ser evaluados y atendidos. Esto, incluso antes de que los inmigrantes crucen las fronteras. La claridad del color, así como el origen nacional de los migrantes, anticipa la detección de personas incluso antes de que sus datos aparezcan en las bases de datos.
Otros datos personales más sensibles, como las opiniones políticas y las creencias religiosas, se identifican más tarde cuando la información se coteja con otras bases de datos y, por tanto, pueden entrar en el procedimiento de evaluación en una fase posterior. Estas bases de datos están estructuradas de forma sesgada, legitimando las diferencias entre los seres humanos y reproduciendo las desigualdades entre los individuos.
Los procedimientos actuales no se caracterizan por ser acciones de excepción, sino que promueven permanentemente la división entre grupos privilegiados, por un lado, y por otro, la clasificación, segregación, aislamiento, castigo y destierro de los indeseables, bajo la justificación del riesgo para el Estado y la sociedad, al no formar parte del «club» social europeo blanco y cristiano.
Es fundamental comprender y repensar el papel de las políticas de información dirigidas a los sistemas de vigilancia para el control de la movilidad humana. Porque, en contra de lo que pueda parecer, incluso los inmigrantes de piel blanca, ojos azules y cristianos también pueden sufrir, de una forma u otra, en algún momento, la discriminación de sistemas que apuestan, sobre todo, por el miedo hacia el extranjero.
Bruno Nathansohn es becario postdoctoral de FAPERJ. Científico social y gestor de documentos. Doctorado en Ciencias de la Información. Investigador
No hay comentarios:
Publicar un comentario