O hábito de trocar o consultório médico por conversas com ferramentas de Inteligência Artificial, como o ChatGPT, pode esconder riscos graves à saúde. Embora pareça uma solução rápida para quem enfrenta filas nos hospitais, estudos recentes mostram que a orientação recebida muda drasticamente dependendo de como o usuário descreve seus sintomas.
Uma pesquisa realizada pela Universidade de Oxford revelou que, em cenários técnicos e controlados, a IA acerta 95% dos casos. No entanto, quando o robô interage com pessoas reais, que muitas vezes esquecem detalhes ou explicam as dores de forma confusa, a taxa de acerto cai para apenas 35%. Essa falha na comunicação pode transformar situações críticas em conselhos inadequados.
Um exemplo real desse perigo aconteceu com uma paciente que, após uma queda, foi informada pela IA que havia ‘perfurado um órgão’. O diagnóstico causou pânico e horas de espera no pronto-socorro, apenas para os médicos confirmarem que não passava de um erro do sistema. Em outros casos, sintomas de hemorragia cerebral foram confundidos com necessidade de repouso.
Diferente de uma pesquisa no Google, onde você vê várias fontes, o chatbot entrega uma resposta única e direta, o que gera uma falsa sensação de confiança. Médicos alertam que as máquinas são programadas para prever padrões de texto e não possuem capacidade clínica para garantir um diagnóstico seguro.
Outro ponto de alerta é a desinformação. Testes realizados na Califórnia mostraram que alguns modelos de IA chegaram a recomendar terapias alternativas sem comprovação científica para doenças graves, como o câncer, em vez de direcionar o paciente para tratamentos hospitalares comprovados.
As próprias empresas que criam essas tecnologias, como a OpenAI, reforçam que as ferramentas servem apenas para fins educativos. O conselho dos especialistas para os moradores de Paulo Afonso e região é claro: a tecnologia não substitui o médico e o uso por conta própria deve ser tratado com extrema cautela.




