Le innovazioni tecnologiche stanno portando a sistemi di intelligenza artificiale capaci di leggere e interpretare dati complessi, inclusi segnali biologici e immagini mediche.
Inoltre, la capacità di questi sistemi di apprendere e adattarsi permette di sviluppare strumenti diagnostici e terapeutici sempre più sofisticati, con un impatto potenzialmente positivo sulla salute pubblica.
Attualmente, l’AI viene già utilizzata per analizzare grandi quantità di dati clinici, facilitando diagnosi più rapide e accurate, indirizzando la scelta di cure più efficaci e ottimizzando i trattamenti.
Ad esempio, parlando di resilienza e pandemie, l’intelligenza artificiale può anche contribuire alla gestione delle risorse sanitarie, prevedendo focolai di malattie o migliorando la pianificazione delle emergenze.
In termini di cure ed accessibilità, l'intelligenza artificiale (IA) sta rivoluzionando lo sviluppo di farmaci accelerando la scoperta di nuove molecole, ottimizzando la progettazione, migliorando gli studi clinici e rendendo più rapide le previsioni sulle potenziali interazioni e sulla sicurezza.
Infatti, analizzando enormi quantità di dati, l'IA può identificare molecole 'promettenti', prevedendo il loro comportamento , ed aiutare a selezionare i pazienti per le sperimentazioni e personalizzare le terapie.
Anche la diagnostica medica sta notevolmente beneficiando della capacità delle AI di analizzare grandi quantità di dati per identificare pattern complessi, per rilevare anomalie e correlazioni, in modo da fornire un quadro clinico completo.
Tuttavia, l’adozione delle Ai in ambito sanitario solleva anche serie preoccupazioni.
Secondo le analisi riportate da varie fonti (Le Scienze, Wired, ecc.), tra i rischi principali vi sono le implicazioni etiche, la sicurezza dei dati e il possibile uso improprio delle tecnologie, oltre alla possibilità che possa mettere a rischio i lavori tradizionali, con “l’automazione di molte attività” che potrebbe portare a una perdita di occupazione anche nel settore sanitario.
Il “Laboratorio Sanità 20/30 – L’intelligenza artificiale in sanità: tra etica e applicazione”, tenutosi a giugno scorso in provincia di Udine, pur confermando che “la sua applicazione in sanità può migliorare significativamente la qualità delle cure, ridurre i errori e ottimizzare le risorse” , ha sottolineato la possibilità di “bias algoritmici e problemi di trasparenza nelle decisioni automatizzate” e l'esigenza di garantire agli assistiti “una formazione adeguata degli operatori sanitari e un controllo continuo delle tecnologie impiegate”.
In termini di bias algoritmici, un rischio ante litteram deriva dal fatto che l'Italia utilizza ancora gli indici ICD-9 introdotti dall'OMS nel 1975, integrandoli e aggiornandoli autonomamente, anziché adottare l'ICD-10 introdotto OMS nel 1990, che si differenzia soprattutto per l'aver introdotto relazioni primarie-secondarie tra le singole patologie ed è in uso in gran parte del mondo, soprattutto se parliamo di nazioni avanzate e produttrici di tecnologie.
In termini legali, il maggior freno allo sviluppo delle AI in Italia (ed in misura minore all'estero) deriva dalla difficoltà nell'attribuire la responsabilità legale in caso di errori causati dall'uso scorretto dei bias o, più in generale, come valutare la qualità delle cure e la sicurezza dei pazienti, sia che il medico usi la AI sia che scelga di non usarla, quando disponibile.
Le preoccupazioni maggiori a livello mondiale, però, puntano sulla possibilità che AI e dispositivi sviluppati per la salute umana vengano utilizzati per usi improri.
Infatti, come annuncia un articolo di Le Scienze di questi giorni, “i dispositivi in grado di leggere nella mente” sono ora in grado di “prevedere i pensieri preconsci”.
Una tecnologia del genere potrebbe migliorare significativamente diagnosi precoci di disturbi neurologici e psichiatrici, aprendo nuove frontiere per la medicina personalizzata, come potrebbe essere utilizzata per la manipolazione delle menti e il controllo di massa.
Quanto alla Privacy, il “Laboratorio Sanità 20/30" (link) propone alcuni criteri per pervenire ad un quadro etico-giuridico e operativo per l’uso dell’IA in sanità:
- le persone devono sapere quali decisioni o processi sono condotti da IA, e capire la logica sottostante (“principio di conoscibilità”)
- il dato sanitario sensibile richiede trattamenti conformi a normative (es. su consenso, tutela dei dati, anonimizzazione o pseudonimizzazione) e garanzie contro accessi non autorizzati o danni accidentali
- chi utilizza l’IA (titolare, responsabile, soggetti esterni) deve essere definito e si devono prevedere audit, validazione scientifica, revisione indipendente, tracciabilità
- l’uso dell’IA non deve sostituire decisioni cliniche finché non vi è certezza su robustezza, accuratezza, qualità dei dati.
In conclusione, l’uso dell’intelligenza artificiale nella sanità rappresenta senza dubbio un progresso di grande impatto, capace di rivoluzionare diagnosi, trattamenti e gestione delle risorse.
Tuttavia, è fondamentale sottolineare che l’efficacia di queste innovazioni dipende anche dalla qualità e dall’aggiornamento dei dati su cui si basano.
Il mantenimento di indici obsoleti o di definizioni superate può creare una falsa sensazione di affidabilità, nascondendo limiti e criticità che, se non riconosciuti, possono avere conseguenze gravi, compromettendo gravemente le policy sanitarie generali e le decisioni cliniche individuali.
Pertanto, è imprescindibile che l’implementazione dell’intelligenza artificiale sia accompagnata da un attento controllo sulla qualità e sulla conformità dei dati, con aggiornamenti costanti e una rigorosa supervisione clinica.

