Entra in vigore l’AI Act europeo. Quali le conseguenze per la ricerca clinica?

Condividi:
Share

Il 2 agosto entrerà in vigore l’Artificial Intelligence Act (AI Act). La Gazzetta Ufficiale europea, alcuni giorni fa, ha pubblicato la direttiva. Si tratta del primo quadro normativo relativo a questa nuova tecnologia.

L’entrata in vigora dell’AI Act sarà comunque scandito da una serie di tappe. Le legge entrerà a pieno regime solo nel marzo 2026. Le tappe più importanti, da qui ai prossimi 36 mesi, riguardano il divieto di impiegare sistemi di AI con rischio inaccettabile (6 mesi a partire dal 2 agosto), l’applicazione dei codici di condotta (9 mesi) e l’applicazione delle regole di governance e degli obblighi per l’AI di scopo generale (12 mesi).

Il dettato normativo europeo sull’IA tocca diversi settori. Tra questi figura la ricerca clinica, dove l’IA è sempre più utilizzata per compiti come l’analisi delle immagini mediche, l’elaborazione del linguaggio per l’analisi degli endpoint, generazione e l’analisi dei dati per i bracci di controllo, nonché per il reclutamento dei pazienti.

Quale sarà l’impatto dell’AI Act dell’UE sull’implementazione di software e di sistemi utilizzati nella ricerca clinica?

La nuova legge classifica le applicazioni di IA in base a quattro livelli di rischio: inaccettabile, elevato, limitato e minimo. Gli ultimi due, ossia i sistemi a rischio limitato e minimo (ad esempio, l’IA nelle app di gioco innocue e nei generatori di linguaggi), sono soggetti a un minor numero di regolamenti attuativi, ma devono comunque rispettare determinati standard che ne garantiscano l’eticità dell’uso.

I sistemi di IA a rischio inaccettabile sono vietati in assoluto, mentre quelli ad alto rischio devono soddisfare requisiti rigorosi; tra questi la trasparenza, la governance dei dati, la registrazione presso le autorità centrali competenti e la supervisione umana.

Di seguito uno specchietto riassuntivo dei concetti che dovranno guidare l’implementazione dei sistemi di IA ad alto rischio:

Trasparenza e spiegabilità: I sistemi di IA devono essere trasparenti, ovvero i loro processi decisionali devono essere spiegabili agli operatori sanitari e ai pazienti.

Governance dei dati: I sistemi di IA ad alto rischio devono implementare solide misure di governance dei dati, compresa la gestione della qualità, con lo scopo di garantire che i dati utilizzati per l’addestramento e il funzionamento di questi sistemi siano accurati, rappresentativi e privi di pregiudizi (articolo 10).

Supervisione umana: L’AI Act prevede che la supervisione umana sia parte integrante dell’implementazione di sistemi di IA ad alto rischio. In ambito clinico, ciò richiede il coinvolgimento degli operatori sanitari che devono garantire che le raccomandazioni dell’IA siano riviste e convalidate da esperti umani (articolo 14).

Accuratezza e affidabilità: La legge richiede processi di convalida e di documentazione rigorosi per dimostrare che i modelli di IA possono simulare in modo accurato e coerente i risultati dei gruppi di controllo e l’analisi degli endpoint (articolo 15).

Considerazioni etiche: L’IA deve considerare le implicazioni etiche, in particolare quelle che riguardano la privacy dei dati e il consenso. Quest’ultimo requisito è particolarmente importante per il reclutamento dei partecipanti. La nuova legge afferma che i sistemi di IA debbano essere progettati e utilizzati nel rispetto dei diritti e dei valori fondamentali dell’uomo (articolo 38).

Monitoraggio continuo: I sistemi di IA utilizzati nelle sperimentazioni cliniche devono essere costantemente monitorati per garantire che rimangano accurati ed efficaci nel tempo. Ciò include la valutazione e la ricalibrazione continua dei modelli di IA man mano che si rendano disponibili nuovi dati (articolo 61).

 

 

Notizie correlate

Lascia un commento



SICS Srl | Partita IVA: 07639150965

Sede legale: Via Giacomo Peroni, 400 - 00131 Roma
Sede operativa: Via della Stelletta, 23 - 00186 Roma

Daily Health Industry © 2024