Inteligência artificial na radiologia: como ocorre a validação de segurança dos algoritmos?

É papel do FDA (Food and Drug Administration) promover a saúde garantindo a qualidade e segurança no uso de produtos e equipamentos a ela relacionados, incluindo aqueles na área de diagnóstico por imagem relacionados à inteligência artificial (IA).

O FDA classifica e regula produtos e equipamentos médicos com base no grau de risco relacionados ao seu uso, tendo como parâmetro de comparação outros semelhantes que já estão no dia-dia da prática médica, e que tenham qualidade e segurança comprovados (denominados “predicados” pela FDA). Desta forma, aquele produto ou equipamento médico considerado classe I representa menor risco e, portanto, está sujeito à menor regulação e controle, e o considerado classe III representa maior risco e, portanto, sujeito à maior grau de regulação e controle.

Uma vez que as ferramentas relacionadas à Inteligência Artificial(IA) são novas no mercado, muitas vezes precisam ter como base dados concretos do mundo real. Como não há grandes “predicados” para comparação, o FDA tem criado novas formas de avaliação, validação e controle deste novo tipo de recurso médico, para que os diferentes tipos de algoritmos de IA sejam melhores e mais rapidamente avaliados, tornando possível que sejam utilizados como ferramentas no mercado de forma segura e eficaz. Podemos citar como exemplos o Programa de Pré-certificação de software e o Sistema Nacional de Avaliação de Tecnologia para Saúde (NEST).

Embora seja uma área nova e muitas instituições pareçam estar distantes da Inteligência Artificial(IA), é notório o trabalho da FDA para implantação, de forma segura, de tal recurso na prática médica. No Brasil, a ANVISA deve seguir um caminho semelhante ao FDA para tentar regulamentar esse novo tipo de ferramenta diagnóstica.

Se interessou sobre o tema? Confira neste link um artigo científico que discutiu essa questão, publicado recentemente no Journal of the American College of Radiology.