Home / Tecnologia / Por que o ChatGPT às vezes promete e não entrega?

Por que o ChatGPT às vezes promete e não entrega?

Você já pediu algo ao ChatGPT, leu “Estou gerando, volto já” e… ficou no vácuo? Pois é: essa “nova habilidade” de enrolar, quase humana, já pegou muita gente de surpresa.

Quando meu ex-sócio Bruno Leonardo pediu ao ChatGPT um brand-book completo, a máquina respondeu com a segurança de um consultor sênior: “Entendi tudo. Vou preparar e já envio.” Duas horas depois, o silêncio. Só depois da terceira cobrança veio um PDF magro, cheio de generalidades. Nada mau para um estagiário; péssimo para quem precisava apresentar a peça ao board.

Descobri que ele não estava sozinho. No Reddit, há várias queixas de usuários que receberam o mesmo “estou trabalhando, aguarde” e nunca viram o resultado. Um deles contou que ficou mais de duas horas lendo a mensagem-padrão de progresso antes de perceber que a IA simplesmente não faria o trabalho.

Outro sintoma: a ilusão do “arquivo pronto”. Na comunidade da OpenAI, desenvolvedores relatam que o ChatGPT gera links para documentos Word que, ao clicar, levam a um belo File Not Found. A IA não edita vídeo, não faz upload, não versiona arquivo — mas fala como se o tivesse acabado de enviar.

O tamanho do buraco

Nem sempre é enrolação; às vezes é pura invenção. Um estudo acadêmico de 2024 mediu o índice de alucinação — respostas factualmente erradas ou inventadas. Resultado: 28,6% das referências citadas pelo GPT-4 eram fictícias; no GPT-3.5 a taxa batia 39,6%. Quando a tarefa muda para resumir textos, o desempenho melhora: na Hallucination Leaderboard da Vectara, a versão mais recente (GPT-4o-mini) erra só 1,7 % das vezes. O problema é que o usuário sabe raramente de antemão em qual dos dois mundos está pisando.

A distorção não poupa ambientes formais: dois advogados nova-iorquinos foram multados em US$ 5 000 após anexar seis decisões judiciais inexistentes redigidas pelo ChatGPT a uma petição federal. Se até profissionais do direito escorregam, imagine seus analistas de marketing sob pressão de prazo.

Por que a IA “procrastina”

  1. Treino estatístico. Nos fóruns que abastecem o modelo, quase ninguém escreve “não sei fazer”. O algoritmo aprendeu que prometer soa melhor do que negar.
  2. Falta de braços. ChatGPT gera texto e imagem; tarefas que exigem executar algo fora desse cercadinho (vídeo, planilha com fórmulas, upload) ficam só no discurso.
  3. Sistema rápido vs. sistema lento. A máquina possui um modo relâmpago — despeja frases — e outro que decompõe problemas. Mas ela não escolhe sozinha qual usar; precisa de prompt preciso, prazo definido e, principalmente, revisão humana.

O que importa

Mesmo que a taxa de erro caia para 2 %, isso significa duas páginas equivocadas em cada cem. No relatório do seu trimestre, é o suficiente para confundir investidores. A lição do café virtual com Bruno virou mantra por aqui:

  • Especifique formato, escopo e prazo no próprio pedido.
  • Pergunte antes se a tarefa está no alcance (“Você consegue gerar um .docx de 500 palavras agora?”).
  • Divida entregas grandes em etapas curtas — e cobre cada uma.
  • Leia tudo com ceticismo: se o ChatGPT pôde inventar duas leis extras de Newton para o Bruno, pode inventar qualquer coisa para você.

A IA generativa continua sendo a maior alavanca de produtividade desta década. Mas, como todo estagiário talentoso, precisa de supervisão — e de alguém que saiba dizer “não ficou bom, refaça”. Enquanto isso não mudar, vale a regra de ouro: confie na velocidade do algoritmo, mas assine apenas após reler. Afinal, o PDF raso do Bruno foi só um lembrete elegante de que nem a inteligência artificial escapa da tentação humana de prometer mais do que entrega.

Se quiser assistir o vídeo completo, está aqui no youtube:

Ir para o conteúdo original: https://exame.com/inteligencia-artificial/por-que-o-chatgpt-as-vezes-promete-e-nao-entrega/

Marcado:

Deixe um Comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *