Inteligência do Google 'alucina' e inventa parte do cérebro humano — entenda o caso
IA do Google inventa partes do cérebro humano

Parece coisa de ficção científica, mas aconteceu de verdade: a inteligência artificial do Google deu uma "viajada" e criou partes do cérebro humano que... bem, simplesmente não existem. O caso, que está dando o que falar entre especialistas, revela um lado preocupante dessas tecnologias que parecem saber tudo.

Imagine só — você pede uma imagem detalhada do cérebro para um sistema de última geração e ele te entrega algo saído de um pesadelo neurológico. Foi exatamente isso que rolou com a Gemini, a IA multimodais do Google. "É como se o software tivesse tomado um café a mais e começado a ver coisas", brincou um pesquisador, sem conseguir disfarçar a preocupação.

O que exatamente aconteceu?

Quando solicitada para gerar representações anatômicas, a IA:

  • Criou estruturas cerebrais completamente fictícias
  • "Inventou" conexões neurais que desafiam a biologia básica
  • Apresentou como fato algo que nem a neurociência mais avançada reconhece

E o pior? Fez tudo isso com uma convicção que deixaria qualquer estudante de medicina de cabelo em pé. "A máquina não diz 'eu acho' ou 'talvez' — ela afirma com total segurança coisas absurdas", explica a Dra. Fernanda Torres, especialista em neuroimagem.

Por que isso importa?

Num mundo onde cada vez mais pessoas confiam cegamente no que o algoritmo diz, esses "deslizes" criam um problema sério. Já pensou se fosse um diagnóstico médico? Ou a explicação de um conceito científico complexo para estudantes?

— O sistema não mente de propósito, claro — mas quando "alucina" (como os experts chamam esses erros), o resultado pode ser tão perigoso quanto uma informação falsa intencional.

E aqui vai o pulo do gato: quanto mais sofisticadas essas IAs ficam, mais difícil fica perceber quando estão inventando coisas. A imagem gerada parecia incrivelmente realista... só que de um cérebro que nunca existiu em nenhum livro de anatomia.

O que o Google diz?

A empresa reconheceu o incidente com um daqueles comunicados cheios de termos técnicos que basicamente dizem: "Estamos trabalhando nisso". Mas entre as linhas, fica claro que mesmo os engenheiros mais brilhantes ainda não dominaram completamente essas "criatividades" indesejadas das máquinas.

Enquanto isso, o caso serve de alerta: na era da IA generativa, precisamos aprender a questionar até mesmo o que os sistemas mais avançados nos mostram. Porque às vezes, entre tantos dados e algoritmos, eles podem estar apenas... dando palpites bem esquisitos.