El Foro de Ceuta ha hablado con la técnica de digitalización de Lafede.cat, Judith Membrives, que es una de las impulsoras de esta plataforma a la que se han adherido más de 60 organizaciones para manifestar que no están de acuerdo con este sistema de control de recogida de datos biométricos a través de reconocimiento facial y huellas dactilares por considerarse «un mecanismo racista al servicio del Estado»
Recientemente ha aparecido en prensa informaciones sobre el la intención del gobierno español de aplicar la llamada «frontera inteligente» en los pasos fronterizos de Ceuta y Melilla con el fin de ejercer un «mayor control de seguridad» a través del uso de inteligencia artificial a través de la recogida de datos biométricos (reconocimiento facial, huellas dactilares…). Frente a esta noticia, las 64 organizaciones han mostrado su preocupación uniéndose en una plataforma denominada Fronteras Digitales, por lo que han decidido «alertar de los peligros asociados a este tipo de decisiones políticas que conlleva el uso de la inteligencia artificial» a través de un manifiesto.
El Foro de Ceuta ha contactado con la técnica de digitalización de la Organización por la Justicia Global de Cataluña, Lafede.cat, Judith Membrives, para conocer de primera mano el origen de esta plataforma y el mensaje que tienen junto a las organizaciones adheridas. «A raíz del atentado de las Torres Gemelas de Nueva York, arrancó la idea de ir añadiendo capas tecnológicas para añadir seguridad a las fronteras», recoge Membrives, que añade que Europa sacó un reglamento en 2017 «que viene a legitimar un sistema de entrada y salida del sistema que recoge datos biométricos de todo aquel ciudadano y ciudadana que entre en territorio europeo sin ser de un país del espacio Schengen«. Según Fronteras Digitales, esta aplicación a nivel práctica es lo que en España pretende llevar a cabo el Gobierno, sobre todo en las fronteras terrestes de Ceuta y Melilla, mediante cámaras de reconocimiento facial: «esta recogida de datos biométricos puede estar en una base de datos europea, y con estas cámaras hacer el cruce con la base de datos para ver si esa persona puede entrar o no, si tiene visado o no, o si esa persona está incumpliendo un aspecto temporal de su permiso para acceder«.
El reglamento dice que este tipo de sistema de inteligencia artificial se tienen que implementar en todas las fronteras del Espacio Schengen antes de finales de este año. Y las organizaciones que se han adherido a la plataforma manifiestan que no están de acuerdo con utilizar la inteligencia artificial como un sistema de control por considerarse «un mecanismo racista al servicio del Estado». Entre las organizaciones adheridas destacamos No Name Kitchen, APDHA, Maakum Ceuta, entidades que trabajan en nuestra ciudad con personas migrantes, además de Oxfam Intermon, entre otras. AlgoRace – (Des)racializando la Inteligencia Artificial, una de las asociaciones adheridas, está llevando a cabo una investigación sobre el racismo en las tecnologías para dar contenido al estudio. Membrives considera todo un éxito la difusión del manifiesto de la plataforma ya que continúan adhiriéndose nuevas organizaciones «gracias al boca a boca» a pesar de que tan solo lleva un día desde su lanzamiento.
Ahora se abren diferentes posibilidades para ver qué mecanismos de participación ciudadana se les permite llevar a cabo para conseguir llevar a cabo algún tipo de acción para concienciar a la ciudadanía y hacer presión para que se revise este reglamento de la Unión Europeo «con el rigor científico que tenemos sobre la mesa que dice que, por un lado, la inteligencia artificial no es 100% fiable y, por otro, que las frontera inteligentes se instalan con la excusa del terrorismo y en otros países donde se han implementado hace años como Estados Unidos no han servido para evitar ataques terroristas«, argumenta la técnica de digitalización, que considera que «no tiene mucho sentido esa justificación de la privacidad de las personas si ya están en una situación de vulnerabilidad», que reconoce que con el activismo que vienen haciendo pretenden llegar a Europa ya que el reglamento es europeo.
Esta plataforma considera que los controles fronterizos son «duros y espacios de potencial vulneración de derechos«, y a continuación analiza el por qué:
• Vulneración de derechos fundamentales: el impacto en los derechos básicos que puede tener en un futuro la recopilación de datos biométricos como ya ocurre en aplicación del Convenio de Dublín. Los traslados de personas solicitantes de asilo de un estado miembro a otro en contra de su voluntad, en aumento en los últimos años, han sido, en parte, propiciadas por la recopilación de datos biométricos, como sus huellas dactilares.
• Violación de la privacidad: los datos biométricos son datos intrínsecos a las personas. La recopilación de datos biométricos en personas sin pasaporte europeo no cumple con el principio de proporcionalidad. Estas personas se encuentran a menudo en situación de vulnerabilidad y no se tienen en cuenta las consecuencias no deseadas de disponer de unos datos biométricos de personas que no cuentan con mecanismos de protección, garantía, y reparación adecuados.
• Discriminación y criminalización. La aplicación de la “frontera inteligente” como un elemento de lucha contra el terrorismo supone un peligro de discriminación y criminalización y la convierte en un nuevo dispositivo racista dentro del Estado Español. Las políticas antiterroristas a menudo han resultado una herramienta de propagación de la islamofobia, que han tenido como consecuencia un rechazo generalizado hacia la población migrante y racializada. Es de sobra conocido que los algoritmos de reconocimiento facial suelen arrojar falsos positivos y falsos negativos en rostros no caucásicos, lo cual, en este contexto concreto, podría suponer graves consecuencias para personas identificadas erróneamente como sospechosas de actos terroristas. La utilización de IA para el control fronterizo profundizaría la estigmatización y criminalización de grupos de personas que ya se encuentran en una gran situación de vulnerabilidad y/o exclusión.
• Transparencia y auditabilidad. El procedimiento adolece de una falta de transparencia tanto en la forma, como en el fondo. Tampoco se menciona la auditabilidad y publicidad de los algoritmos. Por las informaciones conocidas, no se habla de que los algoritmos que se empleen sean auditables y/o explicables, tampoco de mecanismos de trazabilidad que permitan supervisión humana ni de políticas de protección de datos.
• Mecanismos de control y revisión. Resulta imprescindible incorporar mecanismos de control y revisión de los procedimientos algorítmicos que permitan enmendar errores de manera ágil por grupos de personas independientes en los que han de poder participar entidades en defensa de los derechos humanos y antirracistas. El uso de estos sistemas de reconocimiento facial supone una doble securitización del proceso, que estigmatiza pero también diluye la responsabilidad humana y política ante los daños, efectos indeseados o consecuencias negativas de su uso.
Para estas organizaciones, la aplicación de mecanismos de inteligencia artificial en el control fronterizo «supone un peligro de vulneración de derechos humanos, discriminación, criminalización y violación de la privacidad«.
Por ello, exigen la aplicación de la regulación de la IA y protección de datos elaborada por la Comisión Europea también a contextos y situaciones que se consideran de tipo “securitario”, insistiendo en que «no puede haber vacío legal en este ámbito»; la derogación del Reglamento UE 2017/2226 del Parlamento Europeo y del Consejo 30/11 /17 que permite el reconocimiento facial; la necesidad de información y consentimiento informado ante el uso de estos sistemas, incluso si se llegan a aplicar y desplegar; la incorporación sistemática de observadores de derechos humanos en las actuaciones en frontera; la aplicación de tecnologías explicables y auditables, auditoría y control externo de las tecnologías aplicadas, los datos e imágenes almacenadas; y para que la tarea de fiscalización y control por parte de la sociedad civil se pueda llevar a cabo de manera rigurosa, los procesos de diseño y pruebas de los sistemas, incluyendo las bases de datos utilizadas para calibrar los algoritmos, deben ponerse a disposición de auditorías independientes y personas afectadas.