Il recente rilascio della revisione della MDCG 2019-11 a giugno 2025 (qui scaricabile) ha acceso il dibattito nel settore MedTech, specialmente per quanto riguarda l’applicazione dell’Intelligenza Artificiale (AI) e dei Large Language Models (LLM) nei dispositivi medici. Molti speravano in una “guida speciale” per l’AI, con regole nuove e magari più flessibili. Ma la realtà è ben diversa, e anche più chiara e inequivocabile.
La MDCG ribadisce con forza un messaggio cruciale: l’AI non è una scorciatoia regolatoria e non comporta automaticamente un cambio di classe di rischio.
Il punto centrale di questa revisione è la conferma inequivocabile che:
- L’Intended Purpose è l’unica Stella Polare: non importa quanto sia sofisticato il vostro algoritmo, se usa reti neurali, machine learning o qualsiasi altra forma di AI. Se il software non ha uno scopo medico definito ai sensi del MDR/IVDR, non è un dispositivo medico.
È sempre l’uso medico inteso a determinare la qualificazione e la classificazione. - Nessun upgrade automatico di Classe: la presenza dell’AI nel vostro software non significa un aumento automatico della sua classe di rischio (ndr. da Classe IIa a Classe III, o rimanere in Classe I quando fa comodo). La classificazione rimane saldamente ancorata al rischio che il software, in base al suo scopo medico, può comportare per la sicurezza del paziente.
- Gli Esempi di AI Sono Già nella Guida: contrariamente alle aspettative di alcuni, la guida non dedica un capitolo isolato all’AI. Invece, essa suggerisce che i principi e gli esempi esistenti per il software medico sono pienamente applicabili all’AI. Ogni esempio di software nella guida può essere interpretato e adattato per comprendere le vostre soluzioni AI. Fortunatamente questa linea guida amplia gli esempi di MDSW rispetto la versione precedente.
Cosa Significa per il vostro software in AI?
Questa revisione offre chiarezza e rafforza l’approccio basato sul rischio:
- Focalizzatevi sullo Scopo Medico: Il vostro team di R&D e regolatorio deve definire in modo preciso, univoco e giustificato clinicamente lo scopo medico previsto del software AI. Questo è il punto di partenza e arrivo di ogni valutazione.
- Trasparenza e Validazione: Anche se la tecnologia è AI, i requisiti di valutazione clinica, gestione del rischio, cybersecurity e sistema di gestione della qualità restano invariati e cruciali. La “blackbox dell’AI deve essere gestita con la stessa rigorosa documentazione di qualsiasi altro software medico.
- Interoperabilità con l’EHDS: Se la vostra soluzione AI si interfaccia con i dati sanitari e punta all’interoperabilità (es. con EHR), tenete presente che la conformità non sarà più solo al MDR, ma richiederà anche l’allineamento con i requisiti dell’European Health Data Space (EHDS), compreso un “dossier di interoperabilità”.
La Stretta dell’UE: Stop al “Puffing” dell’Intended Use con l’AI
Con questa revisione, l’Unione Europea ha dato (e continua a dare) un chiaro “giro di vite” a quelle pratiche in cui i fabbricanti tendevano a “ingigantire” o “gonfiare” (in gergo, “puffing”) lo scopo previsto dei loro prodotti, spesso sfruttando il fascino e la complessità dell’Intelligenza Artificiale.
L’idea era che l’AI potesse giustificare uno scopo più ampio o una classificazione più alta, anche senza un solido fondamento clinico o regolatorio. La MDCG 2019-11 revisione 1 chiarisce che la tecnologia AI, per quanto avanzata, non può essere usata come pretesto per diluire la precisione e la conformità dello scopo previsto. La chiarezza e la verifica rigorosa sono d’obbligo.
I Prossimi Passi
Questo aggiornamento della MDCG è solo un tassello nel più ampio puzzle normativo dell’UE per la salute digitale.
Cosa possiamo aspettarci nei prossimi passi dalla Commissione Europea?
- Armonizzazione con l’AI Act: Il prossimo grande sviluppo sarà la piena integrazione e armonizzazione tra le normative sui dispositivi medici (MDR/IVDR) e il nuovo AI Act (Regolamento sull’Intelligenza Artificiale). L’AI Act, con il suo approccio basato sul rischio per i sistemi AI, classifica come “alto rischio” anche i sistemi AI che rientrano nel campo di applicazione del MDR/IVDR. Ci si attende ulteriore guida su come le aziende dovranno navigare questa doppia conformità, evitando duplicazioni e garantendo coerenza tra i requisiti di gestione del rischio, sistemi di qualità e sorveglianza post-commercializzazione.
- Guida Specifiche per Casi Complessi: La linea guida fa riferimento al fatto che potranno uscire linee guida (o peggio Specifiche Comuni) in merito a casi complessi (es. PACS). Potremmo inoltre vedere la pubblicazione di ulteriori MDCG che affrontano scenari più complessi e emergenti per l’AI in sanità, come i Foundation Models o i sistemi AI che si evolvono continuamente dopo il rilascio (“adaptive AI”).
- Chiarimenti su Cybersecurity e Data Governance: Con la crescente digitalizzazione, la Commissione continuerà a rafforzare i requisiti sulla cibersecurity per i dispositivi medici, in linea anche con la Direttiva NIS2, e sulla data governance, specialmente in relazione all’implementazione dell’EHDS.
Come MD & IVD Consultant può Supportarti
Navigare il complesso panorama normativo, specialmente con l’integrazione dell’AI, può essere una sfida. MD & IVD Consultant è qui per supportare la tua azienda in questo processo.
Il nostro obiettivo è semplice: assicurare che i tuoi prodotti basati su AI siano non solo innovativi, ma anche pienamente conformi ai requisiti normativi europei. Ti aiuteremo a operare con sicurezza e coerenza sul mercato.
Contattaci per maggiori informazionii.
