Tecnologia avança na saúde enquanto cresce a pressão por ética e segurança. Saiba mais em nossa reportagem
É fato que inteligência artificial avança rapidamente no campo da saúde e já começa a alterar fluxos clínicos, práticas diagnósticas e modelos de monitoramento de doenças. O interesse crescente por essas ferramentas convive com uma preocupação igualmente intensa: como garantir que o uso de sistemas automatizados respeite direitos humanos, privacidade dos pacientes, equidade e transparência.
A Organização Mundial da Saúde afirma em relatório publicado em 2021 que tecnologias de inteligência artificial voltadas à saúde precisam ser desenvolvidas dentro de um conjunto claro de princípios éticos. A entidade destaca que privacidade, justiça distributiva, segurança de dados e proteção contra discriminação devem ser critérios fundamentais na implantação de qualquer sistema digital sensível. A OMS argumenta que, sem salvaguardas adequadas, ferramentas que prometem melhorar o cuidado podem acabar ampliando desigualdades ou expondo populações vulneráveis a riscos adicionais.
O alerta encontra respaldo em novas pesquisas. Uma revisão publicada em 2025 no Journal of Medical Internet Research e conduzida por um grupo internacional de pesquisadores examina a qualidade dos serviços de saúde mediados por sistemas de inteligência artificial. O estudo destaca que há benefícios importantes, como a possibilidade de automatizar a triagem de pacientes, antecipar riscos e monitorar doenças crônicas, mas enfatiza que muitos sistemas ainda operam com opacidade e pouca explicabilidade, o que dificulta a supervisão clínica e a responsabilização.
Outro trabalho recém-publicado em 2025, desta vez por pesquisadores ligados a instituições europeias e apresentado na revista Public Health Reviews, propõe uma lista de verificação ética destinada a orientar o uso da inteligência artificial em populações de diferentes contextos socioeconômicos. O artigo aponta que tecnologias desenvolvidas em países ricos costumam ser aplicadas em ambientes com infraestrutura limitada sem a devida adaptação, o que pode comprometer diagnósticos, criar vieses e reduzir a confiança da população nos serviços de saúde.
O debate ético também aparece na perspectiva da adoção clínica. Um estudo assinado por Pedro A. Moreno-Sánchez, Javier Del Ser, Mark van Gils e Jussi Hernesniemi, publicado em 2025, reforça que a implementação de sistemas baseados em inteligência artificial em hospitais exige rigor técnico e institucional. Os autores observam que a confiabilidade depende de auditorias contínuas, governança clara de dados, supervisão humana e definição de responsabilidades. Sem esses elementos, segundo eles, não há condições adequadas para uso seguro da tecnologia na prática clínica.
A discussão se torna especialmente relevante quando observada à luz de iniciativas nacionais que combinam inteligência artificial, saúde pública e inclusão digital. O estudo científico SPIRA-BM, desenvolvido por um grupo de pesquisadores brasileiros, busca identificar biomarcadores respiratórios por meio da análise de áudio captado em dispositivos móveis. O objetivo é detectar padrões associados a insuficiência respiratória, efeitos do tabagismo e asma grave, utilizando algoritmos de aprendizado de máquina, técnicas avançadas de acústica e sistemas móveis de coleta de dados. A proposta pretende criar uma ferramenta acessível e de baixo
O potencial de impacto é grande, mas os desafios éticos são igualmente significativos. A análise de áudio de pacientes envolve dados sensíveis, que podem revelar informações de saúde, hábitos de vida e até aspectos identitários. Pesquisadores da área de ética em inteligência artificial ressaltam, em estudos publicados entre 2024 e 2025, que qualquer tecnologia que opere com dados biométricos necessita de protocolos rigorosos de consentimento informado, criptografia, controle de acesso e clareza sobre quem pode utilizar e processar as informações. Esses requisitos são considerados fundamentais para garantir segurança e para manter a confiança dos pacientes.
Além disso, a representatividade dos dados utilizados no treinamento dos modelos é uma questão crítica. A OMS e diversos autores destacam que algoritmos desenvolvidos sem diversidade geográfica, social e linguística tendem a apresentar desempenho inferior em populações que não se assemelham ao conjunto de treinamento. No caso do spira-bm, que lida com sinais vocais e respiratórios, aspectos como região de origem, sotaque, idade e sexo podem influenciar os padrões acústicos e precisam ser cuidadosamente integrados no processo de desenvolvimento.
O cenário regulatório brasileiro ainda está em amadurecimento. Pesquisas publicadas em 2023 e 2025 por autores vinculados à Universidade de São Paulo mostram que o país carece de diretrizes específicas para definir responsabilidade legal em casos de erro, requisitos de auditoria e padrões mínimos de qualidade para sistemas de inteligência artificial aplicados à saúde. Esses estudos defendem a criação de normas que garantam segurança jurídica, proteção ao paciente e fiscalização contínua de algoritmos utilizados em ambientes clínicos.
A capacitação dos profissionais de saúde também aparece como um ponto decisivo. Trabalhos recentes publicados no Brasil indicam que médicos, enfermeiros e fisioterapeutas precisam compreender os fundamentos de funcionamento dos algoritmos para que possam questionar resultados, identificar falhas e integrar essas ferramentas à prática assistencial de forma crítica.
A inteligência artificial pode representar uma transformação profunda no acesso ao diagnóstico, no acompanhamento de doenças e na gestão dos sistemas de saúde. Contudo, essa transformação só será benéfica se vier acompanhada de práticas sólidas de ética, governança, transparência e inclusão. Projetos como o SPIRA-BM mostram que a tecnologia pode ser desenvolvida para servir ao interesse social, desde que o avanço científico caminhe lado a lado com o compromisso com a dignidade, os direitos e a proteção das pessoas.
