A inteligência artificial tem revolucionado setores inteiros, da saúde ao entretenimento. Mas esta mesma tecnologia também está a ser usada de forma alarmante: a criação de conteúdos sexuais envolvendo menores. Em Portugal, as autoridades já alertam para a proliferação de imagens manipuladas com recurso a IA, muitas vezes partilhadas em grupos escolares ou nas redes sociais.
Este fenómeno expõe os jovens a riscos sérios, desde chantagem até danos psicológicos irreversíveis, e mostra como ferramentas que pareciam inofensivas podem rapidamente transformar-se numa arma digital. A facilidade de acesso a estas tecnologias e a rapidez com que os conteúdos se disseminam exigem novas respostas: legais, sociais e tecnológicas.
Como surge o problema?
Nos últimos meses, o Centro Internet Segura tem recebido cada vez mais relatos de casos em que menores são alvos de manipulação digital. O que antes parecia restrito a criminosos em cantos obscuros da internet, hoje pode acontecer dentro da sala de aula, no círculo de amigos ou até no grupo de WhatsApp da escola.
Com simples aplicações, qualquer utilizador consegue criar imagens ou vídeos realistas de caráter sexual, sem precisar de conhecimentos avançados de edição. A combinação de IA generativa e redes sociais amplifica o problema, transformando a vida digital de muitos jovens num espaço de risco.
Amplificação e dificuldade de deteção
As imagens produzidas por inteligência artificial são, muitas vezes, impossíveis de distinguir das reais. O problema agrava-se porque ainda não existem ferramentas acessíveis ao público em geral capazes de identificar, de forma eficaz e em tempo real, se um conteúdo é manipulado.
A facilidade com que fotografias partilhadas nas redes podem ser apropriadas e transformadas em deepfakes sexuais expõe milhares de jovens a uma nova forma de violência digital. Estes conteúdos circulam rapidamente em aplicações de mensagens e plataformas sociais, dificultando a remoção e ampliando os danos causados às vítimas.
Paralelamente, surgem plataformas dedicadas exclusivamente à criação de imagens íntimas geradas por IA, o que demonstra como esta tecnologia deixou de ser apenas um risco para adultos e passou a afetar gravemente menores.
Riscos tecnológicos e sociais
A proliferação deste tipo de conteúdos representa uma ameaça em várias frentes:
- Tecnológica: os deepfakes sexuais atingem níveis de realismo que desafiam até sistemas de deteção especializados.
- Psicológica: jovens vítimas de manipulação digital podem sofrer traumas duradouros, com impacto na autoestima, confiança e vida social.
- Legal: muitas legislações ainda não acompanham a velocidade da evolução tecnológica, deixando lacunas na criminalização e punição destes crimes.
- Social: redes sociais e apps de mensagens funcionam como multiplicadores do problema, tornando quase impossível controlar a disseminação de conteúdos assim que são partilhados.
Panorama legal e resposta institucional
Na União Europeia, já estão a ser preparados enquadramentos legais para criminalizar de forma explícita a criação e divulgação de deepfakes sexuais sem consentimento. A nova diretiva europeia obriga os Estados-Membros a adaptarem as suas leis até 2027, prevendo sanções mais pesadas e eliminando prazos de prescrição em casos de abuso sexual infantil digital.
Alguns países já começaram a agir de forma independente. Espanha, por exemplo, aprovou legislação que considera crime a criação de conteúdo sexual com menores recorrendo a IA, introduzindo ainda medidas adicionais como controlos parentais obrigatórios e limites mais rígidos de acesso dos jovens às redes sociais.
Portugal também terá de adaptar a sua legislação para responder a esta nova realidade, garantindo proteção efetiva às vítimas e reforçando os mecanismos de denúncia e investigação.
O papel da tecnologia: prevenção e deteção
Apesar de os riscos serem grandes, a própria tecnologia também pode ser parte da solução. Redes neurais avançadas já permitem atingir níveis muito elevados de precisão na deteção de deepfakes, embora estas ferramentas ainda não estejam amplamente disponíveis ao público.
Além disso, é urgente impor às plataformas digitais a responsabilidade de aplicar sistemas de moderação e certificação de idade, bem como criar mecanismos de denúncia mais eficazes. Os dispositivos devem integrar controlos parentais nativos, simples de configurar e acessíveis a todas as famílias.
Nas escolas, programas de literacia digital podem ajudar os jovens a compreender os perigos, reconhecer manipulações e desenvolver estratégias de autoproteção.
Convite à ação
A exploração sexual de menores através de inteligência artificial é um dos maiores desafios éticos e tecnológicos da atualidade. Cabe às empresas de tecnologia, aos profissionais do setor e às instituições públicas criar soluções que protejam os mais vulneráveis.
É necessário adotar o princípio da IA segura por design, integrando mecanismos de proteção já na fase de desenvolvimento das ferramentas. Também é essencial reforçar a cooperação entre governos, entidades de cibersegurança, sociedade civil e setor privado.
Mais do que um problema técnico, esta é uma questão humana e social. A única forma de travar esta ameaça é combinar inovação, regulação e responsabilidade coletiva. A tecnologia que hoje ameaça pode ser a mesma que amanhã salva, mas para isso é preciso agir já.
Fonte: ZAP