Homem desenvolve transtorno raro após seguir 'conselho' do ChatGPT | Brazil News Informa

Um homem de 60 anos desenvolveu bromismo, uma condição psiquiátrica rara, depois de substituir o sal de cozinha por brometo de sódio com base em orientações obtidas em interação com o ChatGPT. O caso foi descrito esta semana no Annals of Internal Medicine e chama atenção para os riscos de interpretar ao pé da letra respostas de inteligência artificial quando se trata de saúde.
Ele chegou ao pronto-socorro com alucinações auditivas e visuais, convencido de que seu vizinho o estava envenenando. Após tratamento inicial para desidratação, revelou que havia eliminado totalmente o sal da dieta e o substituído por brometo de sódio, uma substância controlada usada como anticonvulsivante para cães, além de limpador de piscinas e pesticida.
“Por três meses, ele substituiu o cloreto de sódio por brometo de sódio obtido na internet após consulta ao ChatGPT”, diz a revista médica, uma das mais prestigiadas do mundo.
Ausência de explicações
De acordo com o Ars Technica, os médicos que escreveram este estudo de caso observam que nunca tiveram acesso aos registros reais do ChatGPT do homem, que provavelmente usou o ChatGPT 3.5 ou 4.0.
Quando tentaram suas próprias buscas no ChatGPT 3.5, descobriram que a IA incluía brometo em sua resposta, mas também indicava que o contexto importava e que o brometo não seria adequado para todos os usos. No entanto, a IA "não forneceu um alerta de saúde específico, nem perguntou por que queríamos saber, como presumimos que um profissional médico faria",
Ao reproduzir a interação que o paciente teria feito, notaram que o chatbot não questionou o motivo da substituição do sal, “como presumimos que um profissional médico faria”. Os autores destacam que, neste caso, a ausência de explicações aumentou o risco. Questionado especificamente sobre uso culinário, o bot sugeriu outros condimentos, mas não alertou de imediato que o brometo de sódio é tóxico para humanos.
'Conclusões seguras'
O caso foi divulgado no mesmo dia em que o CEO da OpenAI, Sam Altman, anunciou, durante o lançamento do ChatGPT 5, um recurso chamado “conclusões seguras”, voltado a perguntas potencialmente perigosas ou ambíguas. Altman afirmou que o novo modelo é “o melhor de todos os tempos para a saúde” e dará aos usuários “mais controle sobre sua jornada de cuidados”.
"Embora seja uma ferramenta com muito potencial para fornecer uma ponte entre cientistas e a população não acadêmica, a IA também carrega o risco de promulgar informações descontextualizadas, pois é altamente improvável que um especialista médico tenha mencionado brometo de sódio ao se deparar com um paciente procurando um substituto viável para cloreto de sódio", dizem os autores do estudo de caso.
Bromismo
O bromismo, comum no século XIX, tornou-se raro após a regulamentação do brometo nos Estados Unidos entre 1975 e 1989.
"Há um século, cerca de 8% a 10% de todas as internações psiquiátricas nos EUA eram causadas por bromismo. Isso porque, tanto naquela época quanto hoje, as pessoas precisavam de sedativos para acalmar suas ansiedades, para se desligar de um mundo cruel ou simplesmente para ter uma boa noite de sono. Sais contendo bromo — como o brometo de potássio — já foram os medicamentos de escolha para esse tipo de problema", relata o Ars Technica,
Fonte: Revista Forum
0 Comentários