Da qualche anno sono entrati nel comune vocabolario italiano, soprattutto di registro giornalistico o governativo, i sostantivi algoretica ed algocrazia.
Con il primo termine si intende tutto ciò che afferisce alla trattazione, alla gestione e alle problematiche di tematiche etiche nell’ambito dello sviluppo di algoritmi e processi automatizzati, tipicamente per l’informatica e le telecomunicazioni.
Invece, con il secondo si indica una potenziale società nella quale gli algoritmi siano in grado di dominare gli assetti politico, socio-economico e organizzativi.
Questi due neologismi, già al momento della loro formazione, sono stati immaginati in un contesto applicativo legato all’Intelligenza Artificiale.
Una rivoluzione dell’elaborazione delle informazioni – come quella generata dall’avvento dell’Intelligenza Artificiale – ha giustamente richiesto uno sforzo di autorità nazionali e sovranazionali del mondo occidentale per gestirne l’applicazione, i risvolti commerciali, la sostenibilità e la sicurezza secondo i criteri di queste società.
In realtà, l’azione di governance non può dirsi affatto conclusa, anzi, è in pieno svolgimento, cercando di far convergere tutti i portatori di interesse, pubblici e privati, verso soluzioni che possano offrire una serie di garanzie con principi saldamente etici, o meglio, algoretici.
Provando a sintetizzare tutte le varie istanze algoretiche in un contesto ancora mutevole, vi sono alcuni punti focali dei molteplici legislatori che vale la pena descrivere.
La prima caratteristica richiesta è la possibilità di una supervisione umana, permettendo una gestione diretta e indiretta dell’Intelligenza Artificiale, dunque non soltanto dal punto di vista strettamente tecnico, e tutto ciò perché si intenda che questo aggregato tecnologico sia uno strumento al servizio dell’essere umano e non un mezzo per limitare o fuorviare la propria autonomia di azione e pensiero.
È comprensibilmente anche auspicata una vigilanza tale che non siano creati sistemi che mettano a rischio i diritti fondamentali del genere umano o che possano incentivare e favorire atti illeciti secondo ciascun codice normativo nazionale.
Si ravvisano come necessarie la solidità tecnica e la sicurezza; infatti, gli algoritmi che costituiscono l’elaborazione “intelligente” devono essere progettati e sviluppati nel modo più affidabile possibile, cercando ogni strada affinché la sicurezza non venga messa in pericolo durante l’intero ciclo di vita del sistema.
La robustezza tecnica è propedeutica alle questioni legate alla privacy ed alla governance dei dati: i cittadini dovrebbero sempre essere edotti sul tipo di utilizzo dei propri dati nel rispetto della normativa e durante tutto il ciclo di vita del sistema “intelligente”.
Altra voce fondamentale è la trasparenza, ossia la tracciabilità dei dati utilizzati, durante il flusso di elaborazione degli algoritmi, includendone i criteri stessi opportunamente documentati, così come la disponibilità di una reportistica che possa evidenziare la presenza di potenziali errori di predizione o di decisione. Il tutto sfocia, allora, nella responsabilità dei meccanismi e delle informazioni.
L’Intelligenza Artificiale deve anche saper considerare tutte le capacità e le abilità del genere umano, garantendo la plurima diversità, l’assenza di discriminazione e la correttezza più evoluta possibile, oltre che la facoltà di essere accessibile teoricamente a tutti; dunque deve essere “democratica”.
Infine, ai sistemi “intelligenti” è richiesta un’azione tendente al benessere sociale ed ambientale, a sostegno dei cambiamenti ambientali positivi e perseguendo al meglio possibile le forme di sviluppo sostenibile.
Uno spettro così ampio di criteri di sviluppo e di mantenimento di sistemi di Intelligenza Artificiale è una garanzia collettiva sia di efficienza che di efficacia, come di giustizia ed equità.
Ne consegue che un’attenta ed armoniosa algoretica è senza dubbio a favore di una dispersione di quella fobia o avversità nei confronti dell’Intelligenza Artificiale che genera, nei pensieri di alcuni individui, oscuri presagi di algocrazia.
Autore Gionata Barbieri
Gionata Barbieri, classe 1982, ingegnere e consulente tecnologico, già imprenditore e manager in ambito di materiali innovativi e nel settore ICT, docente presso scuole pubbliche secondarie di secondo grado di discipline ingegneristiche e tecnologiche, appassionato di storia e numismatica.