El uso de inteligencia artificial para clasificar a solicitantes de asilo preocupa a las ONG
Activistas de derechos humanos denuncian la falta de transparencia en el uso de la inteligencia artificial en la gestión de asilo
Los activistas de los derechos de los inmigrantes en el Reino Unido están preocupados por el modo en que se gestionan las solicitudes de asilo. Según varias ONG, el gobierno británico está recurriendo a la inteligencia artificial para decidir entre los solicitantes.
El grupo de campaña Privacy International ha revelado su preocupación por un programa informático concreto, llamado IPIC, que significa "Identificación y Priorización de Casos de Inmigración". Su objetivo es facilitar la decisión sobre qué inmigrantes y solicitantes de asilo tienen más probabilidades de ser deportados.
¿Cómo lo consigue? Analizando decenas de datos, como el estado de salud, la etnia y los antecedentes penales, según la ONG Privacy International. El programa digiere toda esta información y emite una recomendación sobre el individuo, a favor o en contra de la deportación.
Se dice que el gobierno británico empezó a utilizar IPIC en torno a 2019-2020, y ahora se enfrenta a una avalancha de solicitudes. En este contexto, la tecnología se presenta a menudo como la solución a la prolongación de los retrasos y la carga para las finanzas públicas.
Problemas con el uso de IA
Las organizaciones de defensa de los derechos de inmigrantes ven en ello varios problemas, como la confidencialidad de los datos recogidos, en particular los relativos a la salud. En segundo lugar, y más importante, critican la falta de transparencia.
Privacy International tardó más de un año en obtener información, a pesar de que este derecho está consagrado en la legislación británica. A la ONG le preocupa la forma en que se utiliza esta información.
Por ejemplo, el ex Ministro de Interior conservador, James Cleverly, afirmó que algunos solicitantes de asilo fingían tener pensamientos suicidas para influir en la decisión a su favor.
La pregunta que surge entonces es: ¿puede modificarse el algoritmo en función de las posiciones del Gobierno?
Las asociaciones, y no sólo Privacy International, están especialmente indignadas por el hecho de que decisiones tan importantes, que afectan a la vida de más de 40,000 personas, dependan tanto de la tecnología.
Los estudios ya han demostrado que las herramientas de análisis presentan sesgos discriminatorios similares a los que existen en la sociedad. Es más, se han encontrado errores, sobre todo en lo que respecta a la identidad de las personas.
Oficialmente, el algoritmo emite una recomendación destinada a facilitar el trabajo de los funcionarios de inmigración.
Sin embargo, en la realidad, éstos se enfrentan a un número muy elevado de solicitudes y no siempre disponen de los recursos necesarios para tratarlas a fondo. Por supuesto, es posible rechazar la recomendación, pero entonces el programa informático pide una justificación detallada.
En resumen, es mucho más sencillo para los empleados del ministerio seguir las recomendaciones del software. Sin embargo, no siempre se informa a los solicitantes de asilo de que se ha utilizado la tecnología, lo que limita sus posibilidades de recurso. De momento, el gobierno ha declinado hacer comentarios.
-
Digesett ha impuesto más de 1.5 millones de multas de tránsito en el 2024
-
El Servicio Nacional de Salud registra 79 hechos violentos en hospitales este año
-
Al 77 % de los turistas les preocupa más la experiencia de su viaje que lo que cuesta
-
Eguy Rosario conecta jonrón y las Estrellas asumen el segundo puesto al vencer al Licey