Riflessioni in ambito UE sulla responsabilità da prodotto difettoso “intelligente”

Alla luce della recente proposta di regolamento UE, gli operatori di medical devices intelligenti svolgono un’attività ad alto rischio e sono soggetti a una responsabilità di tipo oggettivo. Di Avv. Diego Gerbino (Deloitte Legal)

0
239
Legal Lens

L’intelligenza artificiale (“IA”) è molto diffusa nel settore sanitario (devices chirurgici, dispositivi medici elettronici, personal assistant robot, wearable devices diagnostici) e sta cambiando le nostre vite migliorando l’assistenza sanitaria (ad esempio permettendo una più accurata prevenzione e diagnosi delle malattie).
L’IA comporta però una serie di rischi potenziali: algoritmi poco trasparenti, vizi del “prodotto intelligente”, intrusioni nella nostra vita privata.
In assenza di una normativa unitaria, si è quindi reso necessario un solido approccio europeo alla materia, razionalizzato con la strategia europea per l’IA presentata nell’aprile 2018 e perfezionato fino ai giorni nostri con la recente proposta di regolamento sull’IA 2021/0106.

La normativa europea in tema di IA e la responsabilità civile da difetto del “prodotto intelligente”

Negli ultimi anni a livello europeo sono nate alcune riflessioni in materia di IA in caso di danni arrecati (i) da dispositivi medici tecnologici malfunzionanti, (ii) dalla robotica chirurgica, riabilitativa o assistenziale e, più in generale, (iii) da errori dovuti al malfunzionamento di software e/o di algoritmi utilizzati in ambito medico.
Sulla base di tali riflessioni sotto il profilo dei soggetti responsabili si distinguono due tipologie di parti coinvolte nel processo tecnologico: (a) gli operatori di “back-end” che esercitano un controllo sul sistema (ad esempio il produttore della tecnologia o lo sviluppatore), (b) gli operatori di “front-end” che esercitano un controllo sull’utilizzo del sistema di IA (ad esempio il medico).
Sotto il profilo della natura della responsabilità, l’UE propone un duplice regime fondato sul rischio dell’attività svolta per mezzo dell’IA distinguendo tra due principali categorie:
(i) una oggettiva, riservata agli operatori di sistemi intelligenti a c.d. “alto rischio” elencati in una specifica lista e sottoposti al rispetto di precisi obblighi; tale responsabilità potrà essere esclusa solo provando la forza maggiore quale reale causa dei danni e
(ii) una fondata sulla presunzione di colpa in caso di sistemi intelligenti c.d. a “basso rischio”; quest’ultima responsabilità potrà essere esclusa dimostrando di aver adottato tutte le misure ragionevoli e necessarie.
Nello specifico gli operatori di medical devices e in vitro medical devices “intelligenti” qualificati come sistemi ad alto rischio nel rispetto del regolamento UE sono sottoposti a una serie di obblighi tra cui ad esempio: l’adozione di sistemi di identificazione, valutazione e gestione del rischio; una esaustiva informazione degli utenti in merito al funzionamento del sistema IA; registrazione in database pubblici istituiti dalla Commissione Europea.
In caso di mancata ottemperanza agli obblighi previsti dalla bozza di regolamento UE, le sanzioni economiche comminate, a seconda della gravità dell’inadempimento, oltre al ritiro dal commercio dell’IA, si attestano tra il 2% e il 6% del fatturato annuo totale mondiale (fino ad un massimo di 10.000.000-30.000.000 di Euro a seconda delle fattispecie).
Alla luce delle future sanzioni tutti gli operatori di sistemi di IA ad alto rischio dovrebbero iniziare a pensare fin da ora al potenziale di tale normativa sulla loro attività, nonché predisporre, ove possibile, tutte quelle misure il cui rispetto è richiesto dal legislatore europeo.