Inteligência artificial em dispositivos médicos: quem responde pelo erro do algoritmo?

O avanço da IA na saúde desafia a regulação e levanta dúvidas sobre a responsabilidade por erros em decisões clínicas automatizadas

Compartilhe este conteúdo

A utilização da inteligência artificial (IA) na prática médica representa uma das mais relevantes transformações na área da saúde. Sistemas baseados em algoritmos já são utilizados para diagnóstico por imagem, triagem clínica e apoio à decisão médica, ampliando eficiência e precisão em diversos contextos assistenciais. No entanto, a velocidade da inovação tecnológica supera a capacidade de adaptação do modelo regulatório brasileiro. Soma-se a isso o fato de que a inteligência artificial não está imune a falhas e, quando se trata de saúde, surge uma questão relevante: quem responde pelo erro do algoritmo?

Atualmente, a Anvisa disciplina essas tecnologias no âmbito dos softwares como dispositivos médicos. Embora esse enquadramento represente avanço regulatório, ele ainda pode se mostrar insuficiente para lidar com sistemas de inteligência artificial dinâmicos, especialmente aqueles baseados em aprendizado de máquina, capazes de aprender com novos dados e alterar seu comportamento ao longo do tempo. Esse dinamismo desafia a lógica da regulação sanitária tradicional, fundada na premissa de que os produtos permanecem relativamente estáveis após sua regularização.

Essa dificuldade de enquadramento não é inédita no setor de saúde. A Agência Nacional de Saúde Suplementar já se manifestou, em parecer técnico, sobre tecnologia de software computacional utilizada na confecção de guias cirúrgicos, analisando-a sob a lógica da cobertura obrigatória e da incorporação formal ao rol. O exemplo revela como o sistema regulatório tradicional tende a tratar determinadas tecnologias como acessórios ao procedimento médico, partindo da premissa de previsibilidade e validação prévia.

Entretanto, essa lógica mostra-se insuficiente diante da inteligência artificial. Diferentemente de softwares tradicionais, a IA pode influenciar diretamente a tomada de decisão clínica, com base em padrões identificados em grandes volumes de dados. O que antes funcionava como instrumento auxiliar passa a influenciar diretamente o processo terapêutico, ampliando os riscos e a complexidade regulatória.

Um dos principais desafios jurídicos é a responsabilidade civil. Em caso de erro, não há clareza quanto à imputação. Imagine-se, por exemplo, um sistema de inteligência artificial utilizado para análise de exames de imagem que sugere a ausência de determinada patologia. Com base nessa indicação, o médico deixa de solicitar exames complementares, e o paciente tem seu diagnóstico retardado. Nesse cenário, questiona-se: o erro decorre da falha do algoritmo, da utilização da ferramenta pelo profissional ou da ausência de cautela na validação da tecnologia?

A tendência ainda é preservar a centralidade do médico, entendendo a IA como ferramenta de apoio à decisão. Entretanto, à medida que os sistemas se tornam mais autônomos, essa premissa pode se tornar insuficiente, abrindo espaço para hipóteses de responsabilidade compartilhada, especialmente quando houver falhas relacionadas ao desenvolvimento, treinamento ou implementação do algoritmo.

Além disso, a utilização de IA depende intensamente de dados de saúde, classificados como sensíveis pela legislação brasileira, o que amplia os riscos relacionados à privacidade, ao uso indevido de informações e à reprodução de vieses algorítmicos, com potenciais impactos discriminatórios.

Nesse panorama, nota-se uma lacuna regulatória relevante, visto que o modelo atual é estruturado para tecnologias estáticas, não respondendo bem a sistemas dinâmicos e adaptativos. O desafio que se impõe não é apenas regular a inteligência artificial, mas reformular o próprio paradigma regulatório, incorporando mecanismos de monitoramento contínuo e avaliação ao longo do ciclo de vida dessas tecnologias.

No campo da responsabilidade civil, também se torna necessário superar a lógica tradicional centrada na imputação individual, avançando para modelos de responsabilização proporcional, que considerem o grau de participação de cada agente envolvido, isto é, do desenvolvedor, do profissional de saúde e da instituição.

Assim, mais do que oferecer uma resposta definitiva sobre quem responde pelo erro do algoritmo, o cenário atual exige a construção de um modelo regulatório e jurídico capaz de equilibrar inovação, segurança sanitária e previsibilidade. O desafio está em evitar tanto a inibição do avanço tecnológico quanto a transferência indiscriminada dos riscos ao paciente.

Gostou do conteúdo?

Faça seu cadastro e receba novos artigos e vídeos sobre o tema
Recomendamos a leitura da nossa Política de Privacidade.