
Parece que a Grok, a polêmica IA de Elon Musk, resolveu entrar em um território perigoso — e, digamos, bastante sensível. Segundo um site especializado, a plataforma ganhou um novo recurso capaz de gerar imagens "picantes" — ou, para ser direto, nudes falsos de celebridades. E adivinha quem foi uma das primeiras vítimas? Nada menos que Taylor Swift.
O que exatamente essa IA está fazendo?
O tal "modo picante" — nome que soa até ingênuo para o que realmente faz — permite que usuários criem imagens hiper-realistas de pessoas sem roupa. E não, não estamos falando de desenhos toscos. A tecnologia consegue resultados tão convincentes que é difícil distinguir do real (o que, convenhamos, é assustador).
E aí é que tá o problema: basta digitar um nome famoso, e pronto. A IA entrega um deepfake que pode destruir reputações em segundos. Taylor Swift, que já sofreu com vazamentos no passado, foi uma das primeiras a aparecer nessa "coleção" digital.
E a reação? Totalmente previsível.
A internet não perdoou. Fãs da cantora e defensores de privacidade digital estão em polvorosa, acusando Musk de cruzar uma linha ética perigosa. Afinal, qual é o limite? Uma ferramenta dessas nas mãos de qualquer um pode virar um pesadelo — especialmente para mulheres famosas, que já são alvo constante de assédio online.
E olha, não é exagero. Nos últimos anos, deepfakes pornográficos viraram uma arma digital, usada para humilhação e chantagem. Agora, com uma IA tão acessível, o problema pode explodir de vez.
E o que Musk diz sobre isso?
Até agora, silêncio absoluto. Nenhum posicionamento oficial da empresa ou do bilionário — o que, convenhamos, só aumenta a desconfiança. Será que ele realmente aprovou esse recurso? Ou será mais um daqueles casos em que a tecnologia avança antes da ética?
Enquanto isso, Taylor Swift — e provavelmente muitas outras celebridades — viram mais um capítulo sombrio da era digital se abrir. E a pergunta que fica é: até quando isso vai ser permitido?