L’intelligenza artificiale sta trasformando rapidamente il nostro quotidiano e anche il settore dei dispositivi medici non è da meno. Software predittivi, algoritmi di supporto alla diagnosi, sistemi di monitoraggio intelligente e soluzioni digital health sono sempre più diffusi nella pratica comune.
Con l’approvazione dell’EU AI Act, Regolamento (UE) 2024/1689, l’Unione Europea introduce un nuovo quadro normativo dedicato all’AI, destinato ad avere un impatto diretto anche sul mondo MedTech.
Ma cosa significa concretamente per fabbricanti e startup di dispositivi medici?
AI Act e MDR: due regolamenti che si incontrano
Un dispositivo medico deve già rispettare il Regolamento MDR (UE) 2017/745.
Se però il prodotto include anche un sistema di intelligenza artificiale, potrebbe essere necessario considerare anche i requisiti aggiuntivi previsti dall’AI Act.
In particolare, molte soluzioni AI in ambito sanitario rientreranno tra i sistemi classificati come “high-risk” secondo l’AI Act, perché influenzano decisioni cliniche e possono avere un impatto diretto sulla sicurezza del paziente.
Quali sono gli aspetti più rilevanti per i fabbricanti?
L’AI Act introduce alcune aspettative specifiche che vanno oltre la compliance MDR tradizionale.
Tra i punti principali:
- maggiore attenzione alla qualità dei dati utilizzati per addestrare e validare gli algoritmi;
- necessità di dimostrare robustezza e affidabilità delle performance nel tempo;
- requisiti di trasparenza verso chi utilizza il sistema (operatori sanitari, strutture, deployer);
- importanza della supervisione umana, per evitare un eccessivo affidamento sull’automazione;
- integrazione della cybersecurity come elemento essenziale per la sicurezza complessiva del sistema.
L’AI non viene quindi più vista solo come una funzionalità innovativa, ma come un elemento regolatorio critico da controllare lungo tutto il ciclo di vita del dispositivo.
Questo aspetto si collega direttamente anche all’evoluzione delle linee guida europee sul software medicale. In particolare, il tema dell’intelligenza artificiale è già stato affrontato nell’ambito della revisione della MDCG 2019-11, che chiarisce diversi aspetti legati alla classificazione e alla gestione dei software come dispositivi medici.
Per un approfondimento su questo punto, abbiamo analizzato nel dettaglio le implicazioni della revisione nel precedente articolo: https://mdivdconsultant.com/2025/06/19/mdcg-2019-11-in-rev-1-ai/
Un messaggio chiaro dai Notified Bodies
Un segnale importante arriva anche direttamente dagli Organismi Notificati europei.
Team-NB e IG-NB hanno pubblicato un documento specifico sull’intelligenza artificiale nei medical devices, evidenziando aspetti chiave come data management, lifecycle monitoring e AI-specific cybersecurity threats.
Ma soprattutto, il paper sottolinea un punto molto forte ovvero che i sistemi basati su modelli che si aggiornano autonomamente in campo (“self-learning”) sono ancora considerati difficili da certificare, e potrebbero non essere ritenuti accettabili a meno che il produttore non dimostri misure solide per garantire la sicurezza e mantenere le prestazioni entro i limiti validati.
Questo conferma che, nel contesto medicale, l’AI deve essere controllabile e governata, non “black-box” evolutiva.
Inoltre, Team-NB ha pubblicato anche una Position Paper dedicata all’interazione tra EU AI Act e MDR/IVDR, evidenziando che la compliance futura richiederà un approccio sempre più integrato tra regolamentazione medicale e requisiti orizzontali AI, soprattutto per i sistemi classificati come high-risk.
Questo conferma che, nel contesto MedTech, l’AI dovrà essere non solo innovativa, ma anche governabile, trasparente e controllabile lungo tutto il ciclo di vita.
Quando ciò diventa applicabile?
Per chi non lo sapesse, l’AI Act è entrato in vigore nel 2024, ma la sua applicazione sarà progressiva:
- le prime disposizioni saranno applicabili dal prossimo 2 agosto 2026;
- mentre i requisiti per i sistemi high-risk dal 2 agosto 2027.
Questo lascia tempo ai fabbricanti per iniziare a valutare l’impatto sui prodotti già in sviluppo. Il tempo comunque non è molto e il nostro consiglio è quello di iniziare già con la gestione di questa transizione.

La semplificazione tramite il Digital Omnibus AI
A marzo 2026, il Parlamento Europeo ha adottato una posizione su un pacchetto di semplificazione dell’AI Act (cosiddetto Digital Omnibus on AI), che potrebbe avere impatti rilevanti anche per il settore MedTech.
Le modifiche proposte vanno nella direzione di:
- ridurre le sovrapposizioni tra AI Act e MDR, chiarendo che la normativa di prodotto (come il Regulation (EU) 2017/745) resta il riferimento principale per i dispositivi medici
- integrare i requisiti dell’AI Act come parte dei requisiti essenziali di sicurezza e prestazione dei prodotti
- chiarire quando un sistema AI costituisce una funzione di sicurezza, con possibili effetti sulla classificazione “high-risk”
- prevedere un possibile slittamento delle scadenze per i sistemi ad alto rischio fino al 2027–2028
In prospettiva, il Digital Omnibus rappresenta un tentativo concreto di armonizzare due mondi normativi che oggi viaggiano in parallelo, evitando duplicazioni documentali e richieste incoerenti.
Per i fabbricanti, questo potrebbe tradursi in un approccio più lineare alla conformità, in cui gli aspetti AI vengono gestiti all’interno del framework MDR, anziché come layer separato.
Resta tuttavia fondamentale monitorare l’evoluzione del testo, perché i dettagli applicativi saranno determinanti per capire il reale impatto operativo sui progetti in sviluppo.
Conclusione
Nel momento in cui si sviluppa un dispositivo che integra intelligenza artificiale, diventa importante iniziare a ragionare fin da subito su come verranno gestiti i dati, su quali evidenze saranno necessarie per dimostrare le prestazioni nel tempo e su quanto il sistema rimanga effettivamente sotto controllo una volta immesso sul mercato. Allo stesso modo, ha senso chiedersi già nelle prime fasi della progettazione quanto l’algoritmo sia trasparente per l’utilizzatore e come verrà garantita una supervisione umana adeguata nel contesto d’uso.
Integrare queste valutazioni lungo lo sviluppo consente di evitare aggiustamenti complessi a valle e di costruire un percorso regolatorio più lineare, soprattutto in vista dell’applicazione progressiva dell’AI Act.
Come MD & IVD Consultant supportiamo aziende e startup nell’inquadramento regolatorio di soluzioni software e AI, nella definizione della strategia MDR/IVDR e nell’integrazione dei nuovi requisiti lungo tutto il ciclo di vita del dispositivo. Contattaci se hai bisogno di maggiori informazioni.

Elisa Lo Blanco è una consulente freelance in Quality Assurance e Regulatory Affairs con oltre 10 anni di esperienza nel settore dei dispositivi medici, inclusi Software as a Medical Device (SaMD) e Digital Health. Supporta aziende e startup nella conformità normativa (EU MDR, FDA), nello sviluppo di sistemi qualità (ISO 13485) e nella gestione del ciclo di vita del prodotto. È specializzata in design control, risk management (ISO 14971) e documentazione tecnica, con un approccio pratico e orientato al business.
