Pesquisadores do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST) descobriram uma forma de evitar que a inteligência artificial invente informações falsas com total confiança. O novo método foca em reduzir a chamada ‘superconfiança’ das máquinas, forçando o sistema a reconhecer quando não tem certeza sobre um assunto.
A equipe liderada pelo professor Se-Bum Paik identificou que o erro começa logo na fase inicial de criação das redes neurais. Atualmente, os sistemas já começam o treinamento com uma confiança muito alta em previsões erradas, o que acaba gerando as famosas ‘alucinações’ — quando a IA cria fatos inexistentes de maneira convincente.
Para resolver o problema, os cientistas criaram uma estratégia de ‘aquecimento’ baseada na biologia humana. Antes de receber dados reais, a IA passa por um treinamento curto com ruídos e informações aleatórias, simulando a atividade neural que acontece no cérebro antes mesmo do nascimento.
Esse processo ensina a inteligência artificial a entender o estado de ‘não saber nada’. Com isso, quando o sistema se depara com uma informação desconhecida no futuro, ele mantém a confiança baixa e consegue identificar que aquele dado é estranho ao que ele aprendeu.
Na prática, a técnica torna a tecnologia muito mais segura para o uso no dia a dia. A aplicação é fundamental para setores críticos, como o diagnóstico médico por computador e o funcionamento de carros que dirigem sozinhos, onde um erro de interpretação pode ser fatal.
Segundo os pesquisadores, o objetivo principal não é apenas fazer a IA acertar mais vezes, mas garantir que ela saiba dizer quando pode estar enganada. O estudo foi publicado na revista científica Nature Machine Intelligence e representa um avanço importante na confiabilidade das ferramentas digitais.




