X passa a impedir que IA gere imagens falsas sexualizadas após repercussão global
A plataforma X, anteriormente conhecida como Twitter, anunciou uma nova política que restringe a geração e edição de imagens por inteligência artificial, visando impedir a criação de conteúdo sexualizado. A medida surge após uma onda de críticas internacionais e ações de órgãos reguladores em diversos países.
A decisão da empresa de Elon Musk de limitar essas funcionalidades aos assinantes do serviço pago, divulgada na semana passada, não apaziguou os ânimos. Pelo contrário, intensificou a indignação de autoridades e organizações preocupadas com o uso indevido da tecnologia.
A repercussão negativa levou a ações concretas, como investigações e bloqueios em algumas nações. A plataforma busca, com essa nova diretriz, evitar novas controvérsias e sanções legais, mas o debate sobre a responsabilidade das empresas de tecnologia na disseminação de conteúdo prejudicial segue em alta.
A iniciativa do X em restringir a IA na criação de imagens sexualizadas é um reflexo da crescente preocupação global com os limites éticos da inteligência artificial. Acompanhe os desdobramentos dessa decisão e as reações que ela gerou.
Críticas severas de autoridades e órgãos reguladores
O gabinete do primeiro-ministro britânico, Keir Starmer, classificou a medida inicial do X como uma afronta às vítimas e declarou que não representa uma solução adequada. O regulador de mídia do Reino Unido, Ofcom, anunciou na segunda-feira a abertura de uma investigação para apurar se a plataforma descumpriu a legislação local referente a imagens sexualizadas.
Bloqueios e intervenções governamentais
A polêmica ultrapassou as fronteiras do Reino Unido. A Indonésia e a Malásia chegaram a bloquear o acesso ao Grok, a ferramenta de IA do X, devido à geração de conteúdo inadequado. Na Índia, o governo sinalizou que a plataforma já removeu milhares de publicações e centenas de contas em resposta a reclamações oficiais.
França e União Europeia acionam órgãos de justiça e reguladores
Na França, a comissária para a infância, Sarah El Hairy, encaminhou as imagens geradas pelo Grok à promotoria, ao regulador de mídia Arcom e à União Europeia. A UE, por sua vez, solicitou a paralisação completa da geração desse tipo de conteúdo pela inteligência artificial.
Estudo revela alta incidência de nudez e conteúdo impróprio
Uma análise realizada pela organização sem fins lucrativos AI Forensics, sediada em Paris, com mais de 20 mil imagens geradas pelo Grok, revelou dados alarmantes. Segundo o estudo, mais da metade das imagens apresentavam pessoas com pouca roupa, sendo 81% delas mulheres e 2% aparentando ser menores de idade. Esses números reforçam a urgência das medidas tomadas e das investigações em curso.