O ChatGPT virou o “pronto-socorro” de bolso de mais de 40 milhões de pessoas todos os dias, segundo a própria OpenAI. Mas a mesma conveniência que livra o usuário da fila do consultório também traz um risco nada desprezível: metade dos diagnósticos gerados pela IA está errada quando não há supervisão médica. A constatação, reforçada por especialistas em saúde digital, coloca em xeque o uso indiscriminado do chatbot como substituto de uma consulta profissional.
Por que tanta gente recorre ao ChatGPT em vez do médico?
O pico de procura acontece fora do horário comercial, quando clínicas estão fechadas e o teleatendimento tradicional é caro ou burocrático. Nos Estados Unidos, por exemplo, sete em cada dez conversas sobre saúde com a IA acontecem durante a noite ou fim de semana. Some a isso o preço dos planos de saúde, longas esperas por especialistas e exames, e temos a receita perfeita para transformar o ChatGPT no “médico 24/7” — gratuito, sem coparticipação e a apenas um clique de distância.
O que as pessoas realmente perguntam ao chatbot?
Apesar do medo de autodiagnóstico, o assunto campeão é seguro de saúde — compreender coberturas, contestar faturas e comparar planos respondem por 40 % das mensagens. Em seguida vêm interpretação de exames (25 %), suspeita de doenças (20 %) e dúvidas sobre medicamentos (10 %). Apenas 5 % tratam de prevenção e nutrição.
Quando a IA ajuda — e quando atrapalha
Há casos emblemáticos. Um usuário insistiu em exame cardíaco depois de o ChatGPT sugerir risco de bloqueio arterial grave. Diagnóstico confirmado, vida potencialmente salva. No outro extremo, a IA indicou um tumor inexistente, gerando ansiedade até que a avaliação presencial descartasse o problema.
50 % de acerto: o dado que deveria chegar antes da resposta
Estudos revisados por pares colocam a taxa de erro acima dos 50 % quando leigos pedem diagnósticos. A fala convincente do modelo dá falsa sensação de precisão, o que aumenta a chance de decisões precipitadas — do consumo equivocado de remédios ao atraso no socorro de emergência.
Quem paga a conta do erro?
Médicos possuem responsabilidade civil, conselhos profissionais e seguradoras. IA generativa, não. Se o ChatGPT erra, fica a pergunta: quem é processado? OpenAI, provedores de internet ou o próprio paciente? O vácuo regulatório reforça o alerta: até que regras claras existam, a recomendação é usar o chatbot como segunda opinião, jamais como veredito final.
Imagem: William R
Médicos também usam IA — mas de maneira diferente
Nos EUA, 66 % dos médicos e 46 % dos enfermeiros já recorrem a ferramentas de IA para resumos de prontuário, triagem de exames e documentação. A diferença crucial é o contexto clínico: o profissional filtra sugestões, cruza com histórico e pede testes adicionais. Já o paciente leigo tende a tomar a primeira resposta como verdade absoluta.
O que isso significa para você e para o futuro da tecnologia?
• Nunca dispense avaliação presencial: dor intensa, sangramento ou falta de ar exigem atendimento emergencial.
• Valide qualquer diagnóstico digital com um profissional.
• Regulação virá: assim como wearables precisaram de certificação, é questão de tempo até chatbots de saúde seguirem normas específicas.
• Potencial enorme: IA pode democratizar explicações de exames e reduzir custos, mas depende de salvaguardas robustas.
A medicina do futuro será inseparável de algoritmos, mas até lá, cautela continua sendo o melhor remédio.
Com informações de Hardware.com.br