Tra le varie linee scientifiche il lavoro di Research Unit One, negli ultimi anni, si è concentrato sull'intelligenza artificiale applicata alla procedura penale, con un'attenzione particolare ai bias cognitivi e alle loro implicazioni nei processi.
Riteniamo, dunque, utile condividere alcune riflessioni su come l'IA stia già trasformando profondamente il nostro modo di prendere decisioni nel diritto e nella sanità.
Quando ci siamo avvicinati all'IA anni fa, ci è stata subito evidenziata una distinzione cruciale: quella tra l'IA tradizionale, o discriminativa, e l'IA generativa, come ChatGPT, che oggi conosciamo bene. L'IA tradizionale si basa su tecniche di deep learning che classificano e stimano dati. Pensate a un sistema che riconosce gli imputati in base a parametri specifici o prevede l'esito di un processo. Questo tipo di intelligenza replica, in modo impressionante, la logica dei neuroni umani, aiutando giudici, medici e altri decisori a gestire compiti complessi in modo rapido e accurato.
Tuttavia, il vero cambiamento rivoluzionario è rappresentato dall'IA generativa. Questa non si limita a classificare o riprodurre dati, ma li crea ex novo. Pensiamo a come può essere utilizzata per generare atti giuridici complessi o simulazioni di scenari processuali. Ma con grandi poteri arrivano grandi responsabilità: possiamo davvero fidarci di una macchina per decidere il destino di una persona? I bias e le discriminazioni insite nei dati storici su cui si addestra un'IA possono portare a decisioni distorte. E non è fantascienza, è la realtà giuridica attuale.
In alcuni paesi, l'IA affianca già i magistrati nelle decisioni cautelari. Il vero problema non è se dobbiamo usarla, ma come gestirla in modo etico e trasparente, assicurando che non crei discriminazioni tra cittadini di serie A e serie B. Questa sfida è ancora più evidente nel settore sanitario.
Pensate a questo: un attacco orchestrato da un’IA generativa che manipola le informazioni di una rete ospedaliera, alterando le prescrizioni mediche. Sembra lontano? In realtà, è un rischio molto concreto. I dati sanitari sono tra i più preziosi nel dark web, il furto, e vendita, di una cartella clinica può avere il valore di oltre 1000 euro, e un singolo attacco può compromettere cure vitali per pazienti, come nel caso di una persona diabetica che dipende dall'insulina.
La cybersicurezza nel settore sanitario non è più un'opzione, è una necessità. Gli ospedali devono adottare misure avanzate di sicurezza, perché una violazione dei dati non mette solo a rischio la privacy, ma la vita stessa dei pazienti e questi ultimi devono affidarsi a strutture sanitarie di buona reputazione che siano in grado di provare una struttura di cybersecurity adeguata, informando il cittadino anche sul come esso gestisce i dati e come li trasferisce a terzi. Come cittadini, possiamo e dobbiamo proteggerci: utilizzando password sicure, attivando l'autenticazione a due fattori e restando vigili di fronte a tentativi di phishing.
Lasciateci, dunque, dire tre cose: primo, l'IA tradizionale può aiutare a classificare e prevedere dati in modo sicuro; secondo, l'IA generativa, pur potente, presenta rischi di sicurezza; e terzo, l'IA è qui per restare, e sta a noi garantire che venga utilizzata in modo etico e trasparente. Il futuro è nelle nostre mani, e dobbiamo guidare questo cambiamento con saggezza e attenzione.
Comments