Diante da notícia de que o relatório da comissão temporária do Senado sobre a regulamentação da inteligência artificial será votado na próxima terça-feira (3), o Idec manifesta preocupação com a versão atualizada do Projeto de Lei 2.338/2024, que visa regular o uso da Inteligência Artificial (IA) no Brasil.
Embora a regulação da IA seja fundamental para garantir uma inovação responsável, o novo texto do PL apresenta retrocessos preocupantes que colocam em risco os direitos dos consumidores e a integridade dos sistemas de IA.
Primeiramente, a nova redação do PL não assegura explicitamente o direito à não discriminação ilícita nem a correção de vieses nos sistemas de IA. Isso é alarmante, considerando que dados pessoais sensíveis, como origem étnica, gênero, orientação sexual e saúde, têm maior potencial discriminatório.
Esses dados, conforme já reconhecido pela Lei Geral de Proteção de Dados (LGPD), exigem um regime protetivo robusto. Portanto, a legislação de IA deveria, no mínimo, garantir a vedação de discriminações direta, indireta, abusiva ou ilegal nos processos automatizados. A ausência dessa proteção cria um ambiente propício à perpetuação de desigualdades sociais, especialmente para grupos vulneráveis.
Outro exemplo de omissão grave do PL frente às questões discriminatórias é a ausência de menção à pontuação de crédito como atividade de alto risco. O score de crédito, amplamente utilizado por instituições financeiras para avaliar o risco de concessão de crédito, tem impacto direto na vida dos consumidores.
O uso de algoritmos de IA nesse contexto pode reforçar preconceitos, perpetuar desigualdades e resultar em danos materiais e morais. É fundamental que o PL 2.338 reconheça essa prática como de alto risco, sujeitando-a a um controle regulatório mais rigoroso, para evitar injustiças na concessão de crédito.
Outro ponto de atenção é a substituição da obrigatoriedade de uma avaliação preliminar de risco por uma mera “boa prática”, algo que enfraquece a regulação. A avaliação preliminar é uma ferramenta essencial para identificar riscos antes da implementação de sistemas de IA, especialmente aqueles que afetam os direitos fundamentais dos consumidores.
Sem a obrigatoriedade dessa avaliação, as empresas podem negligenciar os riscos associados à discriminação, privacidade e segurança, deixando os consumidores desprotegidos e sem mecanismos preventivos eficazes.
Por fim, a participação social na avaliação de impacto de IA sofreu um retrocesso significativo no texto atualizado. Antes, a participação pública era a regra, com exceções específicas previstas no Sistema de Impacto de IA (SIA). Agora, tanto a participação quanto sua exclusão dependem de regulamentação posterior por autoridades competentes.
Essa mudança compromete a transparência e enfraquece o controle social sobre sistemas que afetam diretamente a sociedade. A ausência de uma participação pública consistente e obrigatória pode dificultar a fiscalização das empresas e aumentar a desconfiança em relação à implementação de sistemas automatizados.
O Idec espera que o legislador reveja esses pontos críticos, garantindo que o PL 2.338/2024 proteja adequadamente os consumidores brasileiros. As normas de IA devem priorizar os direitos fundamentais, a transparência e a participação pública, assegurando que a inovação tecnológica seja acompanhada de responsabilidade social e respeito às leis vigentes, como o Código de Defesa do Consumidor e a LGPD.
O Brasil não pode retroceder em direitos tão fundamentais para os consumidores. O Idec continuará acompanhando o andamento do PL 2.338/2024, defendendo que a legislação de IA seja justa, segura e inclusiva.