El gobierno canadiense ha incorporado herramientas de inteligencia artificial en los procesos del Immigration, Refugees and Citizenship Canada (IRCC) para optimizar tiempos y clasificar solicitudes con mayor rapidez. Sin embargo, expertos en derecho migratorio y derechos humanos temen que esta automatización, aunque eficiente, pueda afectar la equidad en las evaluaciones y aumentar los riesgos de error o discriminación.
A medida que la inteligencia artificial se integra cada vez más en el sistema migratorio canadiense, surgen preguntas sobre su impacto real. Aunque la tecnología promete acelerar procesos y mejorar la eficiencia, también plantea dilemas éticos sobre la transparencia, la equidad y el papel del juicio humano en decisiones que pueden cambiar vidas.
Eficiencia versus justicia
El abogado especializado en inmigración Mario Bellissimo considera que la adopción de IA es un avance inevitable, pues permite que los oficiales se enfoquen en casos complejos y que los tiempos de espera se reduzcan. Aun así, advierte que un uso excesivo de la automatización podría restar profundidad al análisis de las solicitudes.
Petra Molnar, investigadora del Refugee Law Lab de la Universidad de York, enfatiza que “la tecnología no es neutral” y que los sistemas automáticos pueden reproducir patrones de discriminación. Según ella, muchos solicitantes desconocen cómo se toman las decisiones que determinan su futuro migratorio.

