INDICE DEI PARAGRAFI
- Che cosa cambia
- Scadenze da ricordare
- Checklist rapida “che fare oggi”
3.1 Selezione e procurement
3.2 Messa in servizio in reparto/ambulatorio
3.3 Uso quotidiano e monitoraggio - Documenti minimi da tenere in cartella/struttura
- Rapporto con il paziente
- Privacy, sicurezza e dati
- Domande-chiave da porre al fornitore
- Errori da evitare
- In sintesi
- Glossario
CHE COSA CAMBIA
• Il medico resta responsabile della decisione clinica. L’AI è uno strumento di supporto, non sostituisce il giudizio professionale.
• Le strutture che impiegano sistemi di intelligenza artificiale assumono obblighi organizzativi: selezione e uso conforme dei sistemi, supervisione umana, formazione, monitoraggio e conservazione dei log.
• I sistemi di supporto a diagnosi/terapia rientrano spesso tra i “ad alto rischio” e, se con finalità cliniche, possono essere software-dispositivo medico: serve marcatura CE e sorveglianza post-commercializzazione.
SCADENZE DA RICORDARE
• Dal 2 febbraio 2025: vietate pratiche “inaccettabili” e avvio degli obblighi di alfabetizzazione all’AI.
• Dal 2 agosto 2025: regole di governance e obblighi per i modelli di uso generale; primi obblighi per gli utilizzatori.
• Dal 2 agosto 2026 (con transizioni fino al 2 agosto 2027): piena applicazione dei requisiti per i sistemi ad alto rischio in sanità.
CHECKLIST RAPIDA “CHE FARE OGGI”
SELEZIONE E PROCUREMENT
– Verificare: destinazione d’uso clinica, marcatura CE quando applicabile, valutazione clinica, manuale d’uso, requisiti AI Act dichiarati dal fornitore.
– Inserire in contratto: qualità dei dati in input, livelli di prestazione (sensitivity/specificity), gestione aggiornamenti, audit, incident reporting, supporto alla DPIA.
MESSA IN SERVIZIO IN REPARTO/AMBULATORIO
– Nominare responsabile clinico-tecnico del sistema e definire la “supervisione umana”.
– Validare su casi pilota; integrare l’AI nei PDTA; impostare policy di “override” documentato quando il giudizio clinico diverge.
– Stabilire chi, quando e come inserisce i dati; tracciare versioni e configurazioni.
USO QUOTIDIANO E MONITORAGGIO
– Registrare ogni utilizzo clinico significativo e conservare i log.
– Verificare qualità/pertinenza dei dati in input; controllare regolarmente bias e allineamento con la popolazione trattata.
– Riesaminare near-miss ed eventi avversi con audit multidisciplinare; notificare rischi gravi a fornitore/autorità.
DOCUMENTI MINIMI DA TENERE IN CARTELLA/STRUTTURA
• Procedura interna di uso del sistema con ruoli e responsabilità.
• Registro dei trattamenti dati e DPIA (se richiesto).
• Schede di validazione locale/commissioning e verbali di formazione del personale.
• Log d’uso clinico, registro incidenti/near-miss, decisioni di override motivate.
• Elenco versioni/modelli e note sugli aggiornamenti.
RAPPORTO CON IL PAZIENTE
• Informare che si utilizza un sistema di supporto basato su AI, spiegando benefici, limiti e possibili errori.
• Garantire che la decisione finale è del medico; raccogliere il consenso informato quando richiesto; documentare la comunicazione.
PRIVACY, SICUREZZA E DATI
• Applicare minimizzazione, qualità e sicurezza dei dati; separare ambienti di test/produzione.
• Per ricerca/uso secondario, verificare basi giuridiche e regole di anonimizzazione/pseudonimizzazione; attenersi alle policy sul riuso dei dati sanitari e allinearsi allo Spazio europeo dei dati sanitari.
• Coordinarsi con DPO e risk manager per DPIA, breach response e cybersecurity.
DOMANDE-CHIAVE DA PORRE AL FORNITORE
• Indicazioni d’uso clinico, metriche di prestazione, popolazione di addestramento/validazione.
• Meccanismi di aggiornamento del modello e impatto sulle performance cliniche.
• Disponibilità di log e tracciabilità delle raccomandazioni; strumenti di spiegabilità.
• Piano di sorveglianza post-market e tempi di risposta agli incidenti.
ERRORI DA EVITARE
• Usare il sistema fuori destinazione d’uso o senza supervisione reale.
• Affidarsi a output non compresi o non riproducibili nella documentazione clinica.
• Inserire dati incompleti o non pertinenti; ignorare gli alert di qualità.
• Mancare formazione, audit periodici e procedure di “stop”.
IN SINTESI
Per essere conformi e sicuri: scegliere sistemi idonei e con evidenze, integrare la supervisione umana, documentare ogni fase (dati, decisioni, log), formare il team e mantenere un ciclo continuo di audit e miglioramento. Questo rende l’uso dell’AI clinicamente difendibile e allineato agli obblighi dell’AI Act e della normativa sanitaria.
GLOSSARIO
AI: intelligenza artificiale.
AI Act: Regolamento europeo sull’intelligenza artificiale che introduce requisiti e obblighi per fornitori e utilizzatori, con approccio basato sul rischio.
Alto rischio: categoria di sistemi con impatto significativo su salute, sicurezza o diritti; in sanità include i sistemi che incidono su diagnosi, terapia o triage.
Bias: distorsione statistica che altera l’accuratezza o l’equità di un modello.
Breach: violazione di dati personali con rischio per i diritti degli interessati.
CE (marcatura): attestazione di conformità ai requisiti UE applicabili al dispositivo/software.
Commissioning: validazione e messa in servizio locale di un sistema prima dell’uso clinico routinario.
Cybersecurity: misure tecniche e organizzative per proteggere sistemi e dati da minacce informatiche.
DPIA: valutazione d’impatto sulla protezione dei dati richiesta dal GDPR quando il rischio è elevato.
DPO: responsabile della protezione dei dati che supporta titolare e struttura su conformità e rischi privacy.
Log: registrazioni tecniche delle operazioni e degli output di un sistema, utili per audit e tracciabilità.
Near-miss: evento che avrebbe potuto causare danno ma è stato intercettato prima che accadesse.
Override: decisione clinica di non seguire l’output del sistema AI, con motivazione documentata.
PDTA: percorso diagnostico-terapeutico-assistenziale definito e condiviso a livello organizzativo.
Procurement: processo di selezione e acquisizione di tecnologie o servizi.
Riuso secondario dei dati: utilizzo dei dati per finalità ulteriori rispetto alla cura (per esempio ricerca), secondo basi giuridiche e garanzie specifiche.
Sorveglianza post-market: monitoraggio continuativo delle prestazioni e della sicurezza dopo l’introduzione in uso.
Spiegabilità: grado in cui è possibile comprendere in modo significativo come il sistema arriva all’output.
Supervisione umana: insieme di misure che consente al medico di comprendere, monitorare e, se necessario, correggere o disattivare il sistema.
Disclaimer
I contenuti sono generati con l’ausilio di ChatGPT e verificati con Gemini, sulla base di idee nate dal mio lavoro di biologo nutrizionista ed esperto in IA per la sanità e la nutrizione. Ogni testo è esaminato, adattato e validato secondo le mie competenze professionali. Le informazioni hanno scopo divulgativo e non sostituiscono la consulenza di un professionista sanitario qualificato.
CONTATTI:
👨⚕️ DR ORICCHIO GENNARO
🧬 BIOLOGO 🍽️ NUTRIZIONISTA
📕 Numero Iscrizione Albo Sezione A: AA_091060
📞 Tel. 392 2474124
📧 Email: oricchiogennaronutrizionista@gmail.com
🌐 WEB: https://www.oricchiogennaro.it/
📝 BLOG: https://www.gennarooricchio.it/blog/
🎙️ PODCAST: https://podcasters.spotify.com/pod/show/gennaro10
YOUTUBE: @nutrizionistaoricchiogennaro
