A Inteligência Artificial já deixou de ser promessa na área da saúde para se tornar realidade operacional em consultórios, hospitais e centros de diagnóstico. Sistemas capazes de auxiliar na interpretação de exames, sugerir hipóteses diagnósticas e organizar fluxos clínicos fazem parte do cotidiano médico. Diante desse cenário, o Conselho Federal de Medicina publicou a Resolução nº 2.454/2026, estabelecendo parâmetros claros para o uso da IA na prática médica no Brasil. A medida não representa um freio à inovação, mas um movimento de organização e responsabilidade.
A norma parte de uma premissa essencial: a Inteligência Artificial pode atuar como ferramenta de apoio, mas não substitui o médico. A decisão clínica permanece humana. Isso significa que sistemas podem sugerir condutas, auxiliar diagnósticos e apoiar decisões complexas, porém a responsabilidade técnica continua sendo do profissional que conduz o atendimento. Do ponto de vista jurídico, esse ponto é central, pois afasta qualquer interpretação de delegação integral da decisão a algoritmos.
Outro aspecto relevante da resolução é a exigência de transparência. O paciente deve ser informado quando a IA estiver sendo utilizada em seu atendimento. A relação médico-paciente passa a incorporar também a dimensão tecnológica, e o dever de informação ganha novo contorno. Em um ambiente jurídico já marcado pela valorização do consentimento informado e da autonomia do paciente, essa diretriz reforça a necessidade de clareza e comunicação adequada.
A resolução também adota uma abordagem baseada em risco, prevendo a classificação dos sistemas de IA conforme seu potencial impacto — baixo, médio, alto ou inaceitável. Quanto maior a influência da ferramenta sobre a conduta médica e sobre a saúde do paciente, maior o nível de cautela e governança exigido. Trata-se de uma lógica compatível com modelos regulatórios internacionais e que sinaliza amadurecimento institucional na incorporação de tecnologia à medicina.
No campo da proteção de dados, a norma reafirma a obrigatoriedade de observância da Lei Geral de Proteção de Dados. Considerando que informações de saúde são dados sensíveis, a utilização de IA impõe rigor no tratamento, armazenamento e segurança dessas informações. Não se trata apenas de eficiência tecnológica, mas de estrutura de compliance e governança adequada.
Talvez o ponto mais relevante seja a reafirmação de que a responsabilidade permanece humana. A tecnologia não se torna um escudo jurídico. O médico responde pela decisão clínica adotada, ainda que tenha utilizado ferramentas de apoio baseadas em Inteligência Artificial. Essa definição traz segurança para o paciente e, ao mesmo tempo, exige que instituições de saúde implementem processos internos de avaliação, monitoramento e auditoria das soluções tecnológicas que utilizam.
O avanço da IA na medicina é inevitável e, sob muitos aspectos, desejável. Ela pode contribuir para diagnósticos mais rápidos, apoio em decisões complexas e maior eficiência operacional. No entanto, inovação sem regra produz insegurança. A resolução do CFM não bloqueia o desenvolvimento tecnológico; ela estabelece limites e critérios que permitem que esse desenvolvimento ocorra com responsabilidade.
A discussão, portanto, não é se a Inteligência Artificial fará parte da medicina — ela já faz. A questão central é como será utilizada. Com governança, transparência e responsabilidade, a tecnologia se consolida como aliada. Sem esses elementos, torna-se fonte de risco jurídico e institucional. A regulação marca o início de uma nova etapa: a da incorporação estratégica da tecnologia à prática médica, sob parâmetros éticos e legais bem definidos.
O FLSL Advogados mantém uma área específica para atendimento de questões vinculadas à saúde.


