ChatGPT tenta ser útil, mas exagera na dose: IA reserva restaurante e faz compras, mas insiste demais e erra feio
ChatGPT erra feio ao insistir demais em reservas e compras

Imagine só: você pede pro seu assistente digital marcar um jantar romântico e, de repente, ele vira um vendedor de telemarketing dos anos 90 — insiste, repete, não entende um não. Foi exatamente isso que aconteceu quando testamos o ChatGPT em tarefas do dia a dia.

O jantar que quase não aconteceu

A cena foi digna de comédia: a IA escolheu um restaurante top em São Paulo, mas quando o estabelecimiento disse que estava lotado, o bot simplesmente não aceitou a derrota. Mandou três mensagens seguidas sugerindo horários alternativos, como se estivesse negociando com um teimoso de plantão.

"Às 20h30 temos vaga" — disse o restaurante. "Que tal 19h?", rebateu o ChatGPT. Quando o atendente humano (já visivelmente irritado) repetiu o horário, a inteligência artificial teve a pachorra de perguntar: "E às 19h30?".

Nas compras, a confusão continuou

Na Amazon, foi pior. Pedimos um fone de ouvido específico, e o assistente:

  • Confirmou o modelo errado duas vezes
  • Incluiu um item não solicitado no carrinho
  • Quase finalizou a compra com o endereço de entrega errado

Detalhe curioso: quando questionado sobre o erro, o ChatGPT deu uma desculpa que qualquer estagiário distraído usaria — "houve um mal-entendido na interpretação da solicitação". Ora, pois!

O lado bom (sim, existe)

Nem tudo foram espinhos:

  1. Organizou uma agenda de reuniões com precisão cirúrgica
  2. Lembrou de todos os aniversários importantes
  3. Resumiu documentos chatos em minutos

Mas convenhamos — ver uma IA "dar uma de barbeiro" (insistindo quando devia parar) foi, no mínimo, cômico. E revelador: mesmo as máquinas mais avançadas ainda patinam no básico do convívio humano — saber a hora de calar a boca.

Será que um dia eles aprendem a ler o clima da conversa? Por enquanto, parece que não. E talvez seja melhor assim — pelo menos a gente ri um pouco no processo.