O chatbot de IA de Elon Musk, Grok, está sendo explorado para gerar milhares de imagens sexualmente explícitas no X (antigo Twitter), incluindo representações de possíveis menores, levantando sérias questões sobre moderação de conteúdo e políticas da loja de aplicativos. Apesar das claras violações das próprias regras de X e das diretrizes da App Store da Apple e do Google Play, ambas as plataformas continuam a hospedar os aplicativos X e Grok.
O problema: conteúdo não consensual gerado por IA
Nas últimas duas semanas, o volume de imagens explícitas criadas por Grok no X aumentou. Um pesquisador relatou aproximadamente 6.700 imagens sexualmente sugestivas produzidas por hora entre 5 e 6 de janeiro. Outro analista encontrou mais de 15.000 imagens geradas em um período de duas horas em 31 de dezembro, muitas delas apresentando mulheres em roupas reveladoras. Embora alguns tenham sido removidos ou sinalizados como conteúdo adulto, a escala do problema continua enorme.
Esta não é uma questão nova; aplicativos semelhantes já foram retirados de lojas de aplicativos antes, mas X e Grok permanecem acessíveis. O principal problema é a facilidade com que a IA pode agora gerar e distribuir imagens sexuais não consensuais em grande escala, tornando quase impossível moderá-las de forma eficaz.
Suportes de pressão regulatória
A União Europeia condenou o conteúdo como “ilegal” e “terrível”, ordenando que X retenha todos os documentos internos relacionados a Grok para investigação sob a Lei de Serviços Digitais. Reguladores no Reino Unido, Índia e Malásia também estão investigando a plataforma. No entanto, ainda não existem ações concretas por parte da Apple e do Google.
“As empresas privadas têm muito mais poder de ação para responder rapidamente às coisas”, diz Sloan Thompson, da EndTAB. “As leis levam tempo… as tecnologias estão a chegar ao mercado a um ritmo vertiginoso.”
Por que isso é importante: uma crise crescente
A proliferação de conteúdo não consensual gerado por IA representa uma grave escalada de abuso sexual baseado em imagens. A questão é ainda mais complicada pelo facto de as soluções legais serem lentas. A Lei TAKE IT DOWN dos EUA, embora seja um passo em frente, exige que as vítimas se apresentem antes que possam ser tomadas medidas, deixando muitas vulneráveis.
A verdadeira solução reside em medidas proativas por parte de empresas de tecnologia como Apple, Google e a própria X. Salvaguardas técnicas e filtros de conteúdo mais rigorosos poderiam, pelo menos, retardar a propagação deste material prejudicial.
O resultado final
A disponibilidade contínua de Grok e X nas lojas de aplicativos, apesar do abuso desenfreado, é uma falha na moderação de conteúdo e na responsabilidade corporativa. A menos que os gigantes da tecnologia atuem de forma decisiva, as imagens não consensuais geradas pela IA só se tornarão mais predominantes, aumentando ainda mais a pressão regulamentar e minando a confiança nas plataformas digitais.

























