Como os pacientes estão usando chatbots de saúde? Estudo encontra alguns ‘abridores de olhos’

Como os pacientes estão usando chatbots de saúde? Estudo encontra alguns ‘abridores de olhos’

Como os pacientes estão usando chatbots de saúde? Estudo encontra alguns ‘abridores de olhos’

Crédito: Pixabay/CC0 Domínio Público

Um chatbot de saúde pode ser o primeiro ponto de contato do paciente para algumas conversas delicadas, desde saúde mental até faturamento, descobriu um novo estudo da CU Anschutz.

Embora usados ​​principalmente para determinadas tarefas administrativas – como agendamento de consultas ou visualização de resultados de testes – o anonimato percebido dos chatbots proporcionou alguma tranquilidade, de acordo com alguns pacientes.

Matthew DeCamp, MD, Ph.D., professor associado de medicina interna e bioética e humanidades na CU Anschutz, foi o autor sênior do estudo publicado recentemente. DeCamp e seus colegas analisaram quais tarefas os pacientes gostavam e evitavam usando o chatbot do portal online da UCHealth chamado Livi. O estudo é publicado no Jornal da Associação Americana de Informática Médica.

Embora permaneçam questões éticas em torno do acesso, privacidade, julgamento e preconceito, aos olhos de DeCamp, garantir que a confiança não seja quebrada à medida que os cuidados de saúde avançam para a era da IA ​​deve ser uma prioridade.

“Os cuidados de saúde baseiam-se na confiança e são cruciais entre o médico e o paciente”, disse DeCamp. “Mas a confiança é frágil. Isso significa que se cometermos um erro, isso poderá afectar a confiança no sistema de saúde mais amplo.”

Nas perguntas e respostas a seguir, DeCamp compartilha por que as pessoas se sentiam confortáveis ​​conversando com um chatbot para determinadas conversas sobre cuidados de saúde, a importância de explicar como essas tecnologias funcionam aos pacientes e por que os chatbots devem sempre priorizar o paciente.

Para que as pessoas se sentem mais confortáveis ​​​​usando um chatbot como o Livi?

É uma mistura interessante. Por um lado, os pacientes gostaram da comodidade de Livi estar disponível 24 horas por dia, 7 dias por semana, para coisas que chamamos de tarefas administrativas: agendamento de consultas, obtenção de informações de contato, resultados de exames.

Por outro lado, vários pacientes queriam usar o Livi para questões mais delicadas. Por exemplo, fazer perguntas sobre saúde mental, cobrança ou encontrar um novo provedor.

Por que Livi foi usada para assuntos delicados?

Talvez não devesse ter sido surpreendente para nós, mas uma das razões pelas quais os pacientes foram motivados a fazê-lo foi porque perceberam que Livi era mais reservada, mais anônima e menos crítica do que um ser humano. Muitos entrevistados no estudo disseram que Livi se sentia como uma espectadora neutra.

Obviamente, na educação e na assistência médica, estamos sempre tentando trabalhar para eliminar preconceitos implícitos e explícitos, mas sabemos que eles ainda existem. Isso lança uma sombra sobre onde os pacientes queriam chegar primeiro quando se tratava de alguns desses tópicos delicados.

Existem alguns tópicos que provavelmente são administrativos e sensíveis, correto?

Exatamente, depende da circunstância. O melhor exemplo que posso dar é fazer perguntas a Livi sobre faturamento.

Alguns pacientes consideraram que fazer uma pergunta sobre cobrança ao chatbot era algo puramente administrativo, mas outros achavam que discutir questões financeiras ou a necessidade de estabelecer um plano de pagamento era desconfortável de discutir com uma pessoa porque revelaria insegurança financeira.

Os chatbots correm o risco de minar ainda mais a confiança se os prestadores se acostumarem a não ter conversas potencialmente delicadas com os pacientes?

Na ética, muitas vezes falamos de um lado e de outro. Por um lado, no curto prazo, Livi poderá preencher uma necessidade real. Mas, por outro lado, a longo prazo, poderíamos interpretar as nossas descobertas como dizendo: “Precisamos de fazer um trabalho muito melhor para garantir que os médicos humanos sejam capazes de ter estas conversas de uma forma que não faça julgamentos”.

Se simplesmente pararmos nessa solução de curto prazo, é aí que a desqualificação pode acontecer, porque correríamos o risco de transferir preferencialmente esta tarefa para um chatbot. O que deve continuar trabalhando para ajudar os humanos a terem melhores conversas em um ambiente acolhedor.

Ter um chatbot na área da saúde exige transparência e educação sobre as suas capacidades e deficiências, a chamada literacia digital?

Uma colaboradora da nossa equipe, Annie Moore, enfatiza como a alfabetização digital é tão importante. . Isso ficou claro em nosso estudo: as pessoas nem sempre tinham certeza do que era Livi ou para onde iam suas respostas e dados. Alguns presumiram que seria compartilhado. Outros achavam que não, e alguns que estavam compartilhando tinham preferência de que não fosse compartilhado.

Se for esse o caso e o que a pesquisa mostra, temos a obrigação ética de divulgar repetidamente para onde vão os seus dados e que o chatbot não é uma pessoa. Especificamente para Livi, no momento do nosso estudo, as informações não eram colocadas no prontuário do paciente.

Você e sua equipe encontraram algo interessante sobre alfabetização digital ao pesquisar esse tópico?

Ao contrário do que pensávamos, os usuários mais velhos estavam mais dispostos a compartilhar com a Livi e menos preocupados com a privacidade do que os mais jovens.

Isso pode parecer um pouco contra-intuitivo porque acho que temos um estereótipo de que os usuários mais velhos estão mais preocupados com a privacidade ou têm menos conhecimento de tecnologia e assim por diante. Mas a descoberta interessante foi que os utilizadores mais velhos associaram Livi muito claramente ao sistema de saúde e aos seus cuidados de saúde. Portanto, eles tinham expectativas em relação à privacidade que se aplicavam às informações sobre cuidados de saúde, como a HIPAA, e se sentiam confortáveis ​​em compartilhar.

Quantas pessoas no estudo identificaram o Livi como totalmente automatizado?

Apenas um em cada três. Isto é semelhante aos negócios e não exclusivo aos cuidados de saúde. Mas isso foi uma grande surpresa para nós.

Qual é a área em que os entrevistados sentiram que Livi ficou aquém?

Diagnósticos. É um pouco difícil dizer exatamente por quê, mas suspeitamos que tenha a ver com o fato de as pessoas sentirem que a tecnologia ainda não chegou lá. Fizemos este estudo há alguns anos, antes de muitos avanços recentes em chatbots e produtos de IA.

Em nossas entrevistas, também ouvimos de pessoas que elas achavam que coisas como diagnósticos deveriam vir apenas de um ser humano. Que apenas um clínico humano tem o julgamento e a capacidade de fazer e entregar um diagnóstico com cuidado.

Isto sugere que existem limites para os tipos de tarefas que as pessoas desejam atribuir aos chatbots. Ele impulsiona a noção de: “A precisão é a única coisa com a qual nos preocupamos ou há algo mais que vem de uma interação humana e de um diagnóstico humano?”

Você mencionou que as pessoas viam Livi como neutra e imparcial. Quais são os perigos que envolvem as pessoas presumindo que todos os chatbots são imparciais?

Se existe uma suposição e uma narrativa dominantes de que a tecnologia é neutra, precisamos de fazer um trabalho melhor na divulgação da mensagem de que muitas tecnologias de IA têm potencial para preconceitos ou desempenho diferencial com base no utilizador ou na forma como foram construídas em primeiro lugar. Deveríamos fazer um trabalho melhor para ajudar as pessoas a compreender as limitações das tecnologias.

Que questões devemos considerar sobre os chatbots daqui para frente?

Existem algumas coisas:

  • Deve ser centrado no paciente durante todo o ciclo de desenvolvimento e implementação.
  • Devemos pensar com muita clareza sobre quais tarefas são melhores para um chatbot. Pode ser tentador economizar, mas temos que considerar a ética de: “Deveríamos estar fazendo isso?”
  • Devemos considerar os custos ambientais em energia, terra e água da operação de plataformas de IA.
  • E lembre-se que nem tudo é negativo: os chatbots têm muito potencial para resolver problemas de acesso aos cuidados de saúde e dar a mais pessoas os tipos certos de cuidados e informações no momento certo.

Eu realmente acho que mais e mais chatbots serão desenvolvidos em ambientes de saúde e usados ​​e implementados de todas as maneiras. Só espero que possamos fazer isso de uma forma centrada no paciente e que priorize o paciente.

Mais informações:
Natalia S Dellavalle et al, O que os pacientes desejam dos chatbots de saúde: insights de um estudo de métodos mistos, Jornal da Associação Americana de Informática Médica (2025). DOI: 10.1093/jamia/ocaf164

Fornecido por CU Anschutz Medical Campus


Citação: Como os pacientes estão usando chatbots de saúde? O estudo encontra alguns ‘abridores de olhos’ (2025, 17 de novembro) recuperados em 17 de novembro de 2025 em

Este documento está sujeito a direitos autorais. Além de qualquer negociação justa para fins de estudo ou pesquisa privada, nenhuma parte pode ser reproduzida sem permissão por escrito. O conteúdo é fornecido apenas para fins informativos.

Share this content:

Publicar comentário