União Europeia aprova banimento de ferramentas de IA usadas para gerar deepfakes sexuais não consentidos
Os Estados-membros e o Parlamento Europeu chegaram a um acordo nesta quinta-feira (7) para proibir, na União Europeia (UE), ferramentas de Inteligência Artificial (IA) que geram imagens sexuais falsas sem o consentimento das pessoas envolvidas.
A iniciativa ganhou força após a introdução de uma funcionalidade no Grok, assistente de IA da xAI (empresa de Elon Musk), que permitia a criação de imagens hiper-realistas (deepfakes) de adultos e crianças em situações íntimas a partir de fotos reais, sem a autorização das pessoas retratadas. O recurso causou indignação em diversos países e motivou uma investigação na UE.
A primeira-ministra italiana, Giorgia Meloni, denunciou a divulgação de fotos falsas com sua imagem geradas por IA e classificou o recurso como uma “ferramenta perigosa”.
De acordo com o Parlamento Europeu, a nova proibição abrange sistemas capazes de criar imagens, vídeos e sons de caráter pedopornográfico ou que exponham as partes íntimas de uma pessoa identificável, além de conteúdos que mostrem alguém participando de atividades sexuais sem consentimento. A regulamentação entrará em vigor em 2 de dezembro de 2026, data a partir da qual os serviços de IA deverão implementar medidas de segurança para evitar a geração desse tipo de conteúdo.
A medida faz parte de uma revisão da legislação europeia sobre IA, uma lei pioneira aprovada formalmente há dois anos. Paralelamente, os 27 países-membros e os eurodeputados também concordaram em adiar a aplicação das novas normas que regulamentam os sistemas de IA de alto risco, utilizados em áreas sensíveis como segurança, saúde e direitos fundamentais.
A nova lei representa um marco na regulamentação da Inteligência Artificial, buscando equilibrar inovação e proteção dos direitos individuais. A UE demonstra preocupação crescente com o potencial de uso indevido da IA, especialmente na criação de conteúdo falso e prejudicial.
🗒️Tem alguma sugestão de reportagem? Mande para o g1
Com informações do G1