A IA não está vindo para os médicos. Já está na sala.

A IA não está vindo para os médicos. Já está na sala.

A IA não está vindo para os médicos. Já está na sala.

À medida que os hospitais recorrem à IA, os pacientes podem já não saber quem — ou o quê — está a tomar as suas decisões médicas. Como médicos do pronto-socorro, vemos como a orientação da IA ​​está mudando o que significa entrar em uma sala de emergência.

Esta não é uma história política. É uma questão cultural: sobre o que significa ter fé no seu médico quando o “médico” pode ser um algoritmo. De acordo com um recente Cartilha do Journal of American College of Emergency Physiciansas aplicações de IA nos departamentos de emergência já estão a ser utilizadas para triagem, previsão de riscos e modelos de pessoal, os planos que ajudam os hospitais a garantir que têm o número e a combinação certos de médicos, enfermeiros e outros funcionários a trabalhar nos momentos certos para cuidar dos pacientes. Os pacientes podem não saber se a pessoa que os trata é um médico ou um híbrido assistido por IA. Isso pode parecer contínuo ou perturbador, dependendo do que está em jogo. Estamos a enfrentar uma transformação silenciosa das urgências, onde as pressões de custos, a escassez de pessoal e os copilotos de IA estão a reescrever o que significa consultar um médico e o que significa confiar nele.

A mudança dos médicos para a IA não é apenas uma solução de pessoal, mas sim uma mudança sísmica na forma como as decisões médicas são tomadas. Cada um vem com compensações. A IA pode processar montanhas de dados em segundos, mas não pode olhar nos olhos de um paciente e reconhecer o medo, apreciar os momentos tranquilos do sofrimento humano ou captar as pistas tácitas que surgem ao segurar a mão de alguém com dor. Parte de nossas mais de 10.000 horas de treinamento médico para nos tornarmos médicos de emergência é desenvolver o instinto de que algo está errado, mesmo quando os sinais vitais e o trabalho de laboratório de um paciente parecem bons. É captar pistas sutis – um indício de confusão, uma leve injúria na fala de um paciente, o pânico silencioso em seus olhos – que um paciente pode não mencionar, nem um algoritmo pode perceber. O elemento humano, a essência da confiança e da compaixão, é exatamente onde a IA tropeça.

As empresas tecnológicas estão a correr para integrar a IA no espaço clínico, criando sistemas de triagem digital, copilotos de diagnóstico e ferramentas de apoio à decisão concebidas para aumentar ou mesmo substituir a supervisão médica. E os hospitais estão a avançar rapidamente para adotá-lo, atraídos pela promessa de custos mais baixos e maior precisão diagnóstica. Em um recente Natureza estudara IA teve um desempenho equivalente ao de médicos não especialistas, uma evidência da rapidez com que os algoritmos estão alcançando os médicos humanos na sala de exames. OpenAI, Google e Microsoft estão testando explicitamente aplicativos de saúde baseados em IA. Uma dessas empresas, a Open Evidence AI, está a construir uma ferramenta alimentada por IA para fornecer aos médicos respostas rápidas e baseadas em evidências a questões médicas, e já está avaliada em 3,5 mil milhões de dólares.

Com certeza, existem lugares onde a IA pode brilhar. Ele pode revelar padrões invisíveis até mesmo para o médico mais experiente, vinculando um resultado de laboratório de meses atrás a uma lista de medicamentos e um conjunto de sintomas para sinalizar um risco de infecção grave antes que alguém o veja. Ele pode revelar interações medicamentosas obscuras, apoiar a tomada de decisões e acelerar a documentação, deixando aos médicos mais tempo para os pacientes e com menos esgotamento. Usada corretamente, a IA é menos um substituto da intuição e mais um multiplicador de força para ela.

Leia mais: A IA pode consertar a parte da medicina que mais suga a alma

Talvez mais do que tudo, a novidade é que tanto os pacientes como os médicos estão agora a utilizar a IA, mas não da mesma forma.

Algumas noites atrás, uma jovem chegou ao pronto-socorro com dores no peito. Seus testes estavam todos normais, mas ela ainda parecia nervosa. Quando perguntei se ela estava preocupada com alguma coisa, ela admitiu que havia caído na toca do coelho do ChatGPT depois de notar alguns batimentos cardíacos acelerados. O chatbot disse que ela poderia ter displasia arritmogênica do ventrículo direito: uma doença cardíaca rara e mortal. (Ela não o fez.) O pânico que se seguiu provavelmente causou os sintomas que a trouxeram.

Outro paciente, um jovem, chegou certo de que tinha apendicite porque o ChatGPT lhe disse isso. Desta vez, ele estava certo. Seus sintomas eram clássicos, e o estudante de medicina que o atendeu presumiu o mesmo diagnóstico. A IA ajudou o paciente a encontrar o diagnóstico mais cedo e a procurar tratamento. Mesmo assim, ele ainda precisava das mãos habilidosas de um cirurgião para remover o apêndice.

Leia mais: 9 maneiras aprovadas por médicos de usar o ChatGPT para aconselhamento de saúde

Esse é o paradoxo deste momento: a mesma tecnologia que alimenta a confusão e o medo também pode aguçar a percepção e acelerar o cuidado. Não se trata apenas de mudar a forma como diagnosticamos, mas também de como os pacientes chegam e de quem cuida deles. Custo, pessoal e tecnologia confundiram a linha entre o cuidado humano e o cuidado da máquina, dando início a um novo tipo de medicina: pacientes tratados por médicos cujo colega mais poderoso pode ser um algoritmo.

O problema não é apenas que a IA pode errar no diagnóstico, é que o uso de IA a longo prazo também pode comprometer a visão do médico. Em um Lanceta estudar, os médicos eram menos propensos a detectar manchas possivelmente cancerígenas na colonoscopia depois de estarem acostumados a usar uma ferramenta de IA. Os autores levantaram a hipótese de que quanto mais confiavam em um algoritmo, menos julgamento humano exerciam.

Leia mais: O uso da IA ​​tornou os médicos menos hábeis em detectar o câncer

Essa mudança para a integração de IA ou de médicos não médicos no pronto-socorro não é inerentemente ruim, mas muitas vezes é invisível para os pacientes. E esse é o problema.

Os pacientes merecem saber quando os seus cuidados são orientados pela IA, quem é o responsável final pelas decisões tomadas e quais as salvaguardas existentes quando o “médico na sala” pode ser um algoritmo.

A transparência não impedirá a marcha da tecnologia, mas poderá ajudar a preservar algo que a medicina não pode perder: a confiança.

Share this content:

Publicar comentário