Los dispositivos médicos impulsados por IA en EE. UU. se retiran del mercado con el doble de frecuencia durante el primer año que los dispositivos médicos comunes.

Durante el análisis, los expertos clasificaron los dispositivos según su estado de validación clínica: sin pruebas, con verificación retrospectiva de datos ya recopilados o con ensayos prospectivos en pacientes. Se consideró por separado la situación de la empresa: privada o pública. Los autores del estudio clasificaron los motivos de las retiradas como errores de diagnóstico y medición, pérdida o retraso de la funcionalidad, y riesgos físicos y bioquímicos. Este enfoque nos permitió evaluar no solo los dispositivos en sí, sino también las condiciones para su lanzamiento al mercado.
La mayoría de las veces, los problemas surgieron debido a errores de diagnóstico y fallos de funcionamiento, con más de cien retiradas relacionadas con estos casos. Decenas más se relacionaron con la pérdida de funcionalidad y otros riesgos. Al final del estudio, casi el 60 % de las retiradas seguían sin resolverse, algunas con una duración de más de tres años. La probabilidad de que el dispositivo funcionara sin una retirada fue del 96,6 % al año, del 93,5 % al año y del 91,8 % al año.
Los problemas fueron más comunes con dispositivos que no se habían sometido a pruebas clínicas y representaron la mayor parte de las retiradas. Esto fue especialmente notorio entre las empresas que cotizan en bolsa: al haber lanzado solo un poco más de la mitad de todos los dispositivos de IA, fueron responsables de más del 90 % de las retiradas. La proporción de productos sin pruebas clínicas fue de aproximadamente el 40 % entre las empresas privadas, casi el 78 % entre las grandes empresas que cotizan en bolsa y aproximadamente el 97 % entre las pequeñas empresas que cotizan en bolsa.
Los autores del estudio señalaron que el proceso actual de la FDA no siempre identifica las vulnerabilidades en los dispositivos de IA de forma temprana. Como solución, proponen que los ensayos clínicos sean obligatorios o que se emitan aprobaciones temporales que solo se mantengan vigentes si se confirma la seguridad y la eficacia.
En Rusia, mientras tanto, también se debate la regulación del uso de la IA en diversos sectores: en agosto de 2025, el Ministerio de Desarrollo Digital, junto con la Alianza en el ámbito de la IA, elaboró un borrador conceptual para el desarrollo de la regulación tecnológica hasta 2030, y en marzo del mismo año, el Ministerio de Salud aprobó el Código de Ética para el Uso de la IA en la Atención Sanitaria. El documento pretende aumentar la confianza de médicos y pacientes en las nuevas soluciones y garantizar su implementación segura en la medicina.
vademec