The National Times - Na era da IA, mulheres são as principais vítimas da pornografia falsa

Na era da IA, mulheres são as principais vítimas da pornografia falsa


Na era da IA, mulheres são as principais vítimas da pornografia falsa
Na era da IA, mulheres são as principais vítimas da pornografia falsa / foto: © AFP

Aplicativos fotográficos que desnudam digitalmente mulheres, a possibilidade de criar "garotas de inteligência artificial (IA)" a partir de simples frases, e imagens manipuladas que alimentam a "extorsão sexual": o crescimento da pornografia ultrarrealista está superando os esforços dos Estados Unidos e da Europa para regulamentar a tecnologia.

Alterar tamanho do texto:

As falsificações de fotos e vídeos cada vez mais realistas com base em IA, chamadas "deepfakes", normalmente estão associadas a personalidades conhecidas, como o papa Francisco vestindo um casaco acolchoado ou Donald Trump sob custódia, mas especialistas afirmam que seu uso está se disseminando para gerar pornografia não consensual que pode arruinar vidas comuns.

As mulheres são o principal alvo dessas ferramentas e aplicativos de IA, amplamente disponíveis gratuitamente e sem a necessidade de conhecimento técnico, que permitem aos usuários remover digitalmente as roupas de suas fotos ou inserir seus rostos em vídeos sexualmente explícitos.

"O aumento da pornografia gerada por IA e do 'deepfake porn' normaliza o uso da imagem de uma mulher sem seu consentimento", explica Sophie Maddocks, pesquisadora da Universidade da Pensilvânia que estuda abusos sexuais baseados em imagens.

"Que mensagem estamos enviando como sociedade sobre o consentimento quando qualquer mulher pode ser virtualmente despida?", comenta.

Em um vídeo dramático, uma streamer americana conhecida como QTCinderella lamentou a "exploração e objetificação constantes" das mulheres quando se tornou vítima do "pornô deepfake". Ela foi assediada por pessoas que enviavam cópias das manipulações em que ela aparecia.

O escândalo estourou em janeiro durante uma transmissão ao vivo do também streamer Brandon Ewing, que foi pego olhando um site contendo imagens sexuais falsas de várias mulheres, incluindo QTCinderella.

"Não é tão simples como 'só' ser violentada. É muito mais do que isso", escreveu a criadora de conteúdo no Twitter, agora chamado X, acrescentando que a experiência a "arruinou".

- "Garotas hiper-reais" -

A proliferação de deepfakes destaca a ameaça da desinformação habilitada por IA, que pode prejudicar a reputação e provocar intimidação ou assédio.

Embora celebridades como Taylor Swift e Emma Watson tenham sido vítimas de pornografia falsa, mulheres que não estão em destaque também são alvo desses ataques.

A mídia americana e europeia está repleta de depoimentos em primeira mão de mulheres, de acadêmicas a ativistas, surpreendidas ao descobrir seus rostos em vídeos pornográficos falsos.

Cerca de 96% dos vídeos deepfake online são pornografia não consensual, e a maioria deles apresenta mulheres, de acordo com um estudo de 2019 realizado pela empresa de IA Sensity.

A experiência do "ato de fantasia sexual, que costumava ser privado e ocorrer dentro da mente de alguém, agora está sendo transferida para a tecnologia e para os criadores de conteúdo no mundo real", disse Roberta Duffield, diretora de inteligência da Blackbird.AI.

- "Área obscura" -

Os avanços tecnológicos levaram a uma "indústria artesanal em expansão" em torno do pornô impulsionado pela IA, na qual muitos criadores de deepfakes aceitam pedidos pagos para gerar conteúdo com uma pessoa escolhida pelo cliente.

O FBI emitiu recentemente um alerta sobre "esquemas de sextorsão", nos quais golpistas capturam fotos e vídeos de redes sociais para criar material falso de "temática sexual" que é usado para chantagear o usuário afetado.

A proliferação de ferramentas de inteligência artificial superou a regulamentação.

"Isso não é uma área obscura da Internet onde essas imagens são criadas e compartilhadas", afirmou à AFP Dan Purcell, CEO e fundador da empresa de proteção de marcas de IA Ceartas. "Está bem na nossa frente. E sim, a lei precisa acompanhar", acrescentou.

Nos Estados Unidos, quatro estados, incluindo Califórnia e Virgínia, proibiram a distribuição de pornografia falsa, mas as vítimas geralmente têm poucos recursos legais se os perpetradores estiverem fora dessas jurisdições.

Em maio, um legislador dos EUA apresentou a Lei de Prevenção de Deepfakes de Imagens Íntimas, que tornaria ilegal compartilhar pornografia falsa sem consentimento.

Espaços online populares, como o fórum Reddit, também tentaram regular suas comunidades prósperas de pornografia com IA.

"A internet é uma jurisdição sem fronteiras e deve haver uma lei internacional unificada para proteger as pessoas contra essa forma de exploração", disse Purcell.

burs-ac/st/tjj/db/arm/ic

P.Sinclair--TNT