A inteligência artificial já faz parte da prática médica contemporânea, seja como apoio visível em exames e alertas, seja como infraestrutura silenciosa que organiza filas, sumariza informações e automatiza rotinas. Nesse cenário, a questão não é mais “se” a IA será usada, mas como incorporá-la com critério clínico, preservando a segurança do paciente, o sigilo e a autonomia profissional.
A Resolução CFM nº 2.454/2026 surge para dar contorno a esse uso. Ela não promove deslumbramento tecnológico nem proíbe inovação. Ela estabelece um princípio que, para a medicina, é inegociável: IA é ferramenta de apoio; decisão e responsabilidade permanecem com o médico.
A seguir, o que muda na prática e como aplicar esse entendimento no consultório, no pronto atendimento e na gestão do serviço.
1) O que essa Resolução é (e o que ela não é)
O que é
A Resolução funciona como um marco ético-profissional para orientar o uso de inteligência artificial na medicina, cobrindo desde pesquisa e desenvolvimento até governança, auditoria, monitoramento, capacitação e uso responsável de modelos, sistemas e aplicações no contexto assistencial.
Ela também cumpre um papel essencial de “dar nome às coisas”: apresenta um conjunto de definições estruturantes que ajudam a reduzir ambiguidades na prática e na gestão. Entre elas, aparecem conceitos como modelo de IA, sistema de IA, aplicação de IA em medicina, ciclo de vida, IA generativa, LLM, auditabilidade, explicabilidade, contestabilidade, privacy by design e privacy by default.
O que não é
Ao mesmo tempo, é importante entender o que a Resolução não pretende fazer:
- Ela não autoriza a substituição do julgamento clínico por automação.
- Ela não transforma a saída de um sistema em “conduta obrigatória”.
- Ela não dispensa o cumprimento do Código de Ética Médica nem das demais normas do CFM.
2) A ideia central: IA apoia, mas não decide
A Resolução autoriza o uso de inteligência artificial como instrumento de apoio à prática médica, mas faz questão de delimitar, sem ambiguidades, onde termina o papel da tecnologia e onde começa o núcleo intransferível da profissão.
Na prática, isso significa que a IA pode contribuir com sugestões, alertas e análises, porém o médico deve utilizá-la exclusivamente como ferramenta de suporte, mantendo-se responsável final pelas decisões clínicas, diagnósticas, terapêuticas e prognósticas. Do mesmo modo, modelos, sistemas e aplicações não podem restringir nem substituir a autoridade profissional: a decisão sobre diagnóstico, prognóstico, prescrição ou qualquer ato médico permanece sempre sob julgamento humano, podendo o médico acolher ou rejeitar a recomendação do sistema conforme seu critério clínico.
“A IA informa; o médico decide.”
3) O checklist do médico: o que muda na prática clínica
A Resolução traz deveres explícitos e vários impactam diretamente a rotina.
3.1 Supervisão humana e julgamento crítico (não negociável)
O médico deve exercer julgamento crítico sobre informações e recomendações fornecidas por IA e manter-se atualizado sobre capacidades, limitações, riscos e vieses conhecidos dos sistemas usados. A norma reforça que as soluções não são soberanas e que a supervisão humana é obrigatória.
- Desconfiar de respostas muito seguras em casos complexos.
- Validar com história, exame físico, exames e epidemiologia.
- Tratar a IA como apoio, não como árbitro.
3.2 Registro em prontuário quando usar IA como apoio
A Resolução é expressa: é dever registrar no prontuário o uso de sistemas de IA como apoio à decisão médica. Um registro suficiente deve conter:
- Ferramenta ou sistema (nome e versão, se disponível)
- Finalidade (apoio à hipótese, triagem, sumarização, rascunho etc.)
- Resultado relevante (em termos clínicos)
- Validação médica (o que foi confirmado ou descartado e por quê)
- Conduta final
3.3 Informação ao paciente quando o uso de IA for relevante
O paciente tem o direito de ser informado, de forma clara e acessível, quando modelos, sistemas ou aplicações de IA forem utilizados como apoio relevante em seu cuidado, diagnóstico ou tratamento.
Sugestão de abordagem: “Além da minha avaliação, usamos uma ferramenta computacional de apoio que sugere hipóteses e alertas. Eu conferi a consistência com seu quadro e a decisão final é médica.”
3.4 Dados de saúde: confidencialidade e segurança
A Resolução exige zelar por confidencialidade, integridade e segurança dos dados de saúde utilizados por IA (LGPD), limita o compartilhamento à finalidade informada e proíbe soluções que não garantam padrões mínimos de segurança.
3.5 Falhas e incidentes: o dever de reportar
O médico permanece integralmente responsável pelos atos médicos praticados com uso de IA e deve comunicar falhas ou riscos relevantes às instâncias competentes.
4) Direitos do médico: autonomia, informação e recusa
- Direito a informações claras sobre funcionamento, finalidade e evidência científica.
- Direito de recusar sistemas sem validação ou certificação regulatória pertinente.
- Direito de não ser obrigado a seguir recomendações de IA de forma automática e acrítica.
- Proteção contra responsabilização indevida por falhas exclusivamente atribuíveis à IA (uso diligente).
Há ainda um ponto organizacional relevante: as instituições e operadoras não devem impor metas ou políticas que subordinem condutas dos médicos baseadas em resultados automatizados.
5) Classificação de risco: quando a IA vira assunto de governança
A Resolução exige avaliação preliminar para definir o grau de risco (alto, médio, baixo ou inaceitável), considerando impacto, criticidade, autonomia do modelo e sensibilidade dos dados.
- Baixo risco: mínimo ou inexistente potencial de consequências negativas.
- Médio risco: potencial impacto adverso, mitigável com supervisão humana ativa.
- Alto risco: alto potencial de danos; exige validação rigorosa, auditorias e monitoramento.
6) O que muda para hospitais, clínicas e operadoras: governança de verdade
A Resolução exige mecanismos de auditoria especializada e monitoramento contínuo. Instituições que adotarem sistemas próprios devem criar uma Comissão de IA e Telemedicina sob coordenação médica.
O EU AI Act (Reg. (UE) 2024/1689) é útil como mapa de maturidade regulatória, com governança baseada em risco, documentação e monitoramento pós-mercado. Foca em transparência, acurácia, robustez e cibersegurança.
O PL indica tendências como supervisão humana efetiva, explicabilidade e auditabilidade ao longo do ciclo de vida. Reforça o caminho de mais rastreabilidade e governança em saúde.
FAQ: perguntas que médicos realmente fazem
Pode, como apoio, com revisão crítica. É necessário julgamento clínico e registro no prontuário.
Sim, quando a IA for utilizada como apoio relevante no cuidado ou diagnóstico.
Não, sem mediação humana. Há vedação expressa.
Sim. O dever é expresso.
O médico. A decisão final é sempre humana.
Sim. A norma protege a autonomia e veda políticas que subordinem condutas médicas a resultados automatizados.
Como adequar o uso de IA: 10 passos para começar
Para o Médico
- Defina a finalidade clínica e evite uso fora do contexto.
- Mantenha supervisão humana e valide recomendações.
- Informe o paciente de forma clara.
- Registre no prontuário ferramenta, finalidade e validação.
- Reporte falhas e riscos às instâncias competentes.
Para a Gestão
- Realize avaliação preliminar de risco documentada.
- Classifique o sistema e comunique limites aos usuários.
- Implemente governança proporcional ao risco.
- Garanta conformidade com a LGPD e segurança em saúde.
- Proteja a autonomia médica e evite pressões automáticas.
