fbpx

Cosa significa “opacità” nel mondo digitale? Se lo chiediamo a un algoritmo, ci risponderà una cosa. Se lo chiediamo a una persona, il risultato potrebbe essere sorprendente.

Tra le virtù che la società ha portato in primo piano negli ultimi anni c’è quella della trasparenza. Affermare con onestà e chiarezza le proprie azioni e i propri intenti, per un’azienda o un personaggio pubblico, significa offrire dei valori da condividere con la propria audience di riferimento.

L’opacità, al contrario, viene vista come il tentativo di nascondere azioni e princìpi morali non degni di essere condivisi e mostrati, in un gioco che vede la sfera pubblica come l’unico possibile scenario in cui agisce l’individuo onesto.

Nell’epoca dell’analisi dei dati e della profilazione continua, però, la trasparenza e l’opacità si distorcono e raggiungono i loro estremi di significato, racchiudendo spesso concetti opposti a seconda dell’associazione logica di cui fanno parte.

Trasparenza asimmetrica

Man mano che si strutturano sistemi di sorveglianza e governance basati sull’analisi perpetua dei dati di comportamento dell’utente, la virtù dell’essere trasparenti e cristallini si sta trasferendo anche all’agire digitale.

Tuttavia, questa tendenza non sembra tenere conto della totale asimmetria che viene messa in atto nel rapporto tra i cittadini e i servizi digitali, che siano essi pubblici o privati.

Nonostante i tentativi e le dichiarazioni di voler propendere per “intelligenze artificiali degne di fiducia”, rilasciando il codice sorgente con licenza open source, l’Unione Europea non sembra praticare quanto viene dichiarato quando si parla di garantire un codice aperto e interessi trasparenti nella messa in pratica di sistemi di ADM (Advanced Decision Making), riconoscimento facciale e tracciamento della temperatura.

Opacità algoritmica

Alla legislazione europea, così come a quelle nazionali, sembra mancare la capacità di imporsi in merito alla necessità di un codice sorgente davvero trasparente

L’applicazione delle intelligenze artificiali viene spesso demandata ad aziende terze, le quali ignorerebbero o addirittura obbligherebbero all’opacità dei sistemi, come riporta Algorithmwatch nel suo report Automating Society del 2020, facendo l’esempio della Polonia e di molte altre nazioni.

Se è vero che sono aumentati a dismisura i casi di adozione di intelligenze artificiali per la governance durante la pandemia, non sono aumentati alla stessa maniera i casi di trasparenza, facendo sì che il sistema di scatole nere sia rimasto sostanzialmente invariato.

È nostro compito chiederci, perciò, che ruolo abbiano questi sistemi nella formazione della persona e della società e se – evitando di considerarli malevoli a prescindere – sia necessario che il codice di questi sistemi sia aperto, conosciuto e pubblico.

Opacità dell’io

Questi interrogativi non possono essere soprasseduti, perché si corre il rischio di andare verso una black box society in cui c’è una totale disparità nel diritto all’opacità. 

I sistemi sarebbero autorizzati a mantenere private le loro intenzioni e il funzionamento degli algoritmi, mentre i cittadini verrebbero incoraggiati alla totale trasparenza delle loro azioni, per consentire il corretto funzionamento dei sistemi di ADM.

È possibile un altro esempio dei problemi legati all’opacità di sistemi. In ambito educativo e di intrattenimento, si viene a creare un modello per cui algoritmi opachi sono i gatekeeper del sapere; di fatto, si trattano di decisori che rispondono a logiche che non sono note ai soggetti delle decisioni.

Una realtà simile è da scongiurare, se teniamo conto degli aspetti più profondi della privacy e rifiutiamo l’ideologia di un “uomo di vetro”, il quale rinuncia alla sua sfera intima per garantire procedure senza intoppi. In questo senso, l’opacità dell’io dovrebbe essere un diritto garantito e la cui presenza non interferisce con i sistemi della società digitale.

Un giudizio informato

Risulta quindi evidente la necessità di dare vita a sistemi che spezzino la logica dell’opacità delle intelligenze artificiali come condizione necessaria alla sicurezza e al proliferare economico delle intelligenze artificiali.

Sebbene il funzionamento degli algoritmi preveda che maggiore è la precisione dei dati inseriti, maggiore sarà l’efficienza nello svolgere la funzione richiesta, dobbiamo tenere conto dei rapporti di potere e intimità che una simile dinamica si porta dietro. 

È un dilemma etico che dovrebbe informare le decisioni dei governi da qui ai prossimi decenni, perché determinerà l’equilibrio tra l’io e il pubblico di ognuno di noi.

Sarà possibile sviluppare sistemi trasparenti e degni di fiducia per il miglioramento comune, che al contempo non richiedano l’abnegazione totale dell’io interiore e dell’agire della persona? 

Esisterà un equilibrio tra il diritto alla privacy e l’efficienza dei sistemi di advanced decision making?

 

Ascolta l'ultima puntata del podcast di Civiltà Digitale



Ricevi aggiornamenti ed appuntamenti di Civiltà Digitale direttamente nella tua casella di posta