
O AI Act da União Europeia estabelece que organizações que desenvolvem ou utilizam sistemas de IA classificados como de alto risco devem realizar uma Avaliação de Impacto sobre Direitos Fundamentais – Fundamental Rights Impact Assessment (FRIA) – antes da primeira utilização do sistema.
O European Center for Not-for-Profit Law (ECNL) e o Danish Institute for Human Rights (DIHR) elaboraram então o Guide for Fundamental Rights Impact Assessment, com o objetivo de apoiar organizações públicas e privadas na elaboração da FRIA.
A FRIA envolve, entre outros elementos, a identificação de riscos específicos, a definição das categorias de pessoas e grupos potencialmente afetados, bem como a descrição das medidas de supervisão humana (human oversight) e dos mecanismos adotados para prevenir, mitigar ou remediar impactos negativos.
O objetivo do Guia é auxiliar as organizações na condução de FRIAs em conformidade com o AI Act e com padrões internacionais relevantes de direitos humanos, oferecendo uma metodologia prática e aplicável ao longo do ciclo de vida dos sistemas de IA.
O documento apresenta exemplos concretos para ilustrar riscos reais. Um deles envolve um sistema de detecção por IA utilizado para monitorar pessoas no mar, no qual o algoritmo passa a classificar de forma recorrente embarcações de pesca operadas por pescadores como “migração irregular de alto risco”. Nesse caso, os direitos fundamentais potencialmente afetados incluem: o direito à vida, a proibição de tratamento desumano ou degradante e a ocorrência de viés algorítmico capaz de configurar discriminação indireta.


