È questo uno dei temi affrontati nell’ultima conferenza annuale, tenutasi a Strasburgo il 22 e 23 Novembre di quest’anno, dal Consiglio per la cooperazione penologica (PC-CP), il quale ha elaborato una proposta di raccomandazione in cui si individuano le linee guida per l’utilizzo dei meccanismi di intelligenza artificiale all’interno degli istituti penitenziari e nei sistemi di probation. Essa si inserisce nel dibattito già aperto, a livello europeo, dalla Commissione europea e dal Consiglio d’Europa i quali hanno elaborato due documenti, rispettivamente le linee guida etiche sull’IA (2019) prodotte dall’High Level Expert Group (HLEG) e Unboxing Artifical Intelligence – 10 Steps to Protect Human Rights del Commissario per i diritti umani del Consiglio d’Europa, che vengono richiamati dal testo in esame, seppur con un approccio più critico; esso, infatti, pur riconoscendo i benefici dell’IA, tende a sottolineare gli altrettanti rischi che potrebbero derivare da questi strumenti.
In questo documento il Consiglio per la cooperazione penologica si interroga, in particolare, sugli sviluppi e sulle future implicazioni dell’IA nel settore penitenziario ove l’intelligenza artificiale è molto più diffusa di quanto comunemente si creda, specie se si considera il fatto che alcuni Paesi extraeuropei stanno sperimentando, già da alcuni anni, nuove tecniche di IA all’interno delle carceri.
Ma cosa si intende per IA? Si ritiene che, nonostante siano state offerte diverse definizioni, si possa rispondere a questa domanda richiamando quella elaborata, nel 2018, dalla Commissione europea, secondo cui i sistemi di IA sono <<systems that display intelligent behaviour by analysing their environment and taking action — with some degree of autonomy — to achieve specific goal>>.
Ed invero, nel documento predisposto dal PC-CP, si osserva come il ricorso a questi sistemi all’interno delle carceri e nella probation consenta, da un lato, di creare modalità più avanzate di raccolta ed elaborazione dei dati sui condannati (e i dati sono ciò su cui prosperano i sistemi di intelligenza artificiale) e, dall’altro, di potenziare le tecniche di controllo al fine di rendere il regime di sorveglianza più incisivo e penetrante.
Vediamo, quindi, più nel dettaglio, come il Consiglio si approccia a queste tematiche: per quanto riguarda, in primis, i probation settings, essi hanno fatto ricorso alla tecnologia già a partire dagli anni Ottanta e Novanta, introducendo sia il monitoraggio elettronico (electronic monitoring) che le valutazioni computerizzate relative al pericolo di recidiva e all’entità del danno (computerised risk assessments to predict risk of reoffending and degree of harm), i quali si prestano, oggi, ad essere gestiti dai sistemi di IA. Al riguardo, questo documento osserva come la maggior parte di queste tecnologie, più che valorizzare la riabilitazione, tendono ad enfatizzare il controllo e la sicurezza. Tuttavia, il rischio evidenziato dal Consiglio riguarda l’avvento della cd. polizia predittiva (predictive policing) ossia l’uso di dati e algoritmi capaci di prevedere dove e quando potrà verificarsi un episodio di recidiva (pre-crime), cosicché vengano adottate misure per contrastarla. In altre parole, il Consiglio teme che rimettere le decisioni, in tema di recidiva, a delle “macchine” e non all’uomo, rispettivamente al magistrato di sorveglianza, sia una scelta imprudente in quanto non considera e trascura l’alta probabilità di fallimento di queste tecniche.
Dunque, il PC CP ritiene, piuttosto, che lo sviluppo tecnologico più utile nei sistemi di probation possa essere, piuttosto, una nuova forma di monitoraggio elettronico che utilizza gli smartphone (smartphone EM) sia come dispositivi di localizzazione sia come base per la “probation with app”, ossia un sistema di sorveglianza (già in via di sperimentazione in Europa e negli Stati Uniti) gestito attraverso le – ormai note a tutti – “app” che consente di monitorare, in tempo reale, tutte le azioni dell’autore di reato. Esso, infatti, se gestito mediante strumenti di IA, <<can detect (and possibly predict) potentially risky behaviour. Based on the nature of the event, an AI could autonomously take a number of different actions to address the risk. Those might include, alerting the supervising officer or a mentor, or initiating a chat bot system through an offender’s mobile device that is trained to de-escalate situations>>. Ed in particolare, il presente documento rileva come questo strumento sia particolarmente efficace per il trattamento di cura della tossicodipendenza e della salute mentale.
Quali saranno, invece, le implicazioni per ciò che concerne il ricorso all’IA all’interno degli istituti penitenziari?
Il comitato rileva che, nonostante ci siano ancora non poche incertezze sul punto, certamente gli strumenti di IA non rendono meno probabile il ricorso al carcere né offrono un rimedio al costante problema del sovraffollamento. Tuttavia, lo stesso rileva anche che le funzioni primarie dei sistemi basati sull’IA sono legate soprattutto alla sicurezza carceraria (prison security). In effetti, le nuove tecnologie di sorveglianza remota (new remote surveillance technologies), con le loro capacità di automatizzare sia le modalità di fornitura dei servizi ai detenuti che quelle di raccolta di dati osservativi e comportamentali degli stessi, abbandonano il modello architettonico del panopticon di Bentham, garantendo un’osservazione ancora più costante e capillare dei detenuti.
Il Consiglio osserva, inoltre, come le carceri, al cui interno si ricorre agli strumenti appena descritti, sono definite “smart prisons” (carceri intelligenti) poiché si contraddistinguono per le loro digital capabilities (capacità digitali) che le rendono sempre più ambiziose e automatizzate rispetto ad altri istituti ove ancora non vengono utilizzati detti sistemi.
Ma, come e in quale specifico settore, viene attualmente utilizzata l’IA all’interno degli istituti?
Attualmente, questi meccanismi vengono impiegati, ad esempio, per monitorare la frequenza cardiaca dei detenuti attraverso un braccialetto e per tenere sotto controllo le telefonate degli stessi, tramite un sistema di <<speech recognition, semantic analytics, and machine learning software to build databases of searchable words, and patterns to detect illegal activity>>. Ed inoltre le attività illegali possono essere individuate anche mediante telecamere dotate di IA che, abbinando i movimenti e i comportamenti delle persone alla nozione di “sospetto” incorporata negli algoritmi, permettono di rilevare attività di contrabbando, droga e armi all’interno delle carceri. Addirittura, nelle carceri di alcuni Paesi (Cina e Corea del Sud) sono state introdotte, ormai da tempo, “robotic guards” – macchine mobili in grado di pattugliare i locali – per “ridurre” il carico di lavoro degli agenti penitenziari.
L’Europa, tuttavia, è ancora estranea a questi sviluppi poiché, a differenza di altri Paesi stranieri, ritiene che gli strumenti di IA, più che potenziare il controllo e la sorveglianza, debbano piuttosto essere utilizzati nei percorsi riabilitativi e terapeutici.
Quali saranno le decisioni in merito all’utilizzo dell’IA nei sistemi di probation e all’interno delle carceri non è dato ancora saperlo e i membri del PC-CP si chiedono se, alla luce di quelli che saranno i futuri sviluppi nel campo dell’IA, rimarranno sulla stessa traiettoria o vorranno cambiare rotta. Per questo motivo non escludono la necessità di tornare a discutere sul tema, ritenendo che <<reviewing this Recommendation sooner, in 2032, may enable a desirable change of direction, an opportunity which would be lost if re-appraisal of the issues were left until later >>.
A cura di Diletta Niccoli