Os modelos de linguagem de larga escala (LLMs) continuam a alucinar, inventando fatos, códigos e até conselhos psicológicos com uma confiança inabalável. O que antes era visto como um defeito sério hoje é vendido por alguns entusiastas como uma suposta “característica criativa”. A graça acaba quando você depende da ferramenta para algo sério, como uma pesquisa acadêmica e recebe citações falsas, ou quando o ChatGPT insiste que um bug inexistente no seu código é real, fazendo você duvidar de si mesmo.
Essas falhas não apenas persistem, como parecem se intensificar nos modelos mais recentes. Diante disso, surge a pergunta: como as BigTechs podem prometer uma AGI iminente se seus sistemas ainda tropeçam em erros tão básicos? As respostas, invariavelmente, são genéricas: “precisamos de mais pesquisas”, “mais dados” ou “mais capacidade computacional”.
O problema vai além das alucinações. Trata-se de uma falta crônica de confiabilidade. A indústria de IA se move entre dois polos extremos. De um lado, o discurso utópico de que a IA irá curar o câncer e educar toda a humanidade. Do outro, o apocalipse iminente em que máquinas dominam o mundo e extinguem empregos. Ambos os cenários alimentam uma mesma lógica: acelerar o desenvolvimento a qualquer custo.
Essa polarização não é neutra. Ela legitima a pressa em lançar tecnologias sem responsabilidade clara sobre seus efeitos concretos. Questões imediatas, como vieses nos modelos, desinformação, violação de direitos autorais e riscos à privacidade, ficam relegadas ao segundo plano. Enquanto isso, executivos de grandes empresas de IA se comportam como líderes carismáticos de um culto tecnológico, mudando de discurso conforme os interesses de mercado, prometendo segurança em um dia e velocidade no outro, mas sempre respondendo aos investidores antes dos usuários.
O mais preocupante é como erros graves são tratados com naturalidade. Se um carro autônomo atropelasse alguém por causa de um bug conhecido, a fabricante enfrentaria processos imediatos. Mas quando um LLM gera conselhos perigosos, espalha mentiras ou prejudica projetos inteiros, a justificativa é sempre a mesma: “isso será corrigido na próxima versão”. Na prática, seguimos como cobaias de um experimento em escala global, sem regulamentação adequada nem mecanismos de responsabilização.
Esse cenário revela uma assimetria perigosa entre quem desenvolve a tecnologia e quem a utiliza. Usuários comuns, pesquisadores, programadores e até empresas inteiras dependem dessas ferramentas sem ter como verificar, auditar ou exigir garantias mínimas de qualidade. A confiança acaba sendo transferida para promessas de marketing e notas de atualização, quando deveria estar embasada em mecanismos sólidos de controle e transparência.
Se a indústria de IA deseja realmente alcançar credibilidade, precisará encarar de frente o problema da confiabilidade. Isso não se resolve apenas com mais parâmetros ou GPUs mais poderosas, mas com uma mudança estrutural: auditorias independentes, padrões regulatórios claros, mecanismos de correção de danos e, sobretudo, honestidade quanto às limitações dos sistemas atuais. Sem isso, a promessa de uma Inteligência Artificial geral não passa de propaganda, enquanto seguimos convivendo com máquinas que falam com convicção, mas sem responsabilidade.
Quanto a você, caro leitor, certifique-se de aperfeiçoar o seu conhecimento e usar IA como aquilo que ela realmente é: Uma ferramenta. E ferramentas não substituem conhecimento, apenas potencializam o conhecimento que você já tiver.
David Matos