fbpx

Eldon Tyrell era molto orgoglioso delle sue creature: “più umano dell’umano” era il motto dell’azienda che portava il suo cognome. I suoi replicanti, androidi terribilmente simili agli umani, venivano cacciati da Rick Deckard nel 2019 immaginato da Blade Runner nel 1982.

Oggi non dobbiamo preoccuparci di replicanti a piede libero, ma la convergenza tra macchine fisicamente forti e macchine intelligenti pone domande sulla nascita di una nuova specie che potrebbe arrivare a convivere con gli umani sulla Terra.

Le macchine saranno sempre più presenti nella nostra vita, con crescente potenza di calcolo, capacità di prendere decisioni e di svolgere lavori fisici che richiedono precisione e forza.

Intelligenza e forza hanno abitato per decenni campi separati dell’innovazione.

Cosa succederebbe se convergessero in una sola macchina?

My body is a cage

Pensateci: abbiamo sviluppato tecnologie che sono molto più forti, robuste e intelligenti degli esseri umani. Come è possibile che non ci abbiano ancora affiancato (o sostituito) come specie dominante?

La risposta è semplice: le macchine forti sono sempre state “stupide” e le macchine intelligenti deboli, inermi. I computer pensano più rapidamente di noi, ma non si possono muovere. I bracci robotici sollevano tonnellate, ma non possono pensare. 

Tutta la tecnologia che conosciamo viene distinta in quella dotata di un corpo e in quella che non lo ha. O per meglio dire, dalla presenza o meno di attuatori che possano interagire col mondo fisico.

È possibile dividere, ancora, tra intelligenti e non-intelligenti: se non hai attuatori ma sei intelligente, sei uno smartphone; se non sei intelligente, sei una radio. Se hai gli attuatori ma niente intelligenza, sei un braccio automatico da fabbrica; se hai gli attuatori e sei intelligente, cosa sei?

(A/IS)

I robot hanno avuto una grande evoluzione nell’ultimo secolo. Da insiemi di leve e pistoni adatti a compiti semplici e ripetitivi, sono diventati capaci di svolgere insiemi di azioni complesse. Alcuni hanno intelligenze simili a quelli dei primati, e lavorano per riconoscimento di parole e imitazione delle emozioni umane.

In altre parole, macchine instancabili dalla forza sovrumana possono ora interagire con il mondo fisico in modo intelligente. Possiamo identificarli come A/IS, ovvero Autonomous Intelligent System, capaci di pensare e muoversi in autonomia.

Siamo di fronte a una nuova specie superiore? È molto improbabile, soprattutto nel breve periodo. I supercomputer richiedono moltissima energia elettrica e sono ben più grandi del cervello umano. Milioni di anni di evoluzione danno agli umani il vantaggio di una grande intelligenza, trasportabile in un organo efficiente che pesa poco più di un chilogrammo.

Se da un lato il rischio di venire rimpiazzati come specie è molto basso, dall’altro la convivenza con i sistemi A/IS autonomi e intelligenti ha bisogno di essere regolata. Incidenti, scelte a-morali, diritti delle macchine e responsabilità dei loro produttori. Per non parlare dei rapporti delicati tra coscienza umana e coscienza informatica.

Asimov non basta

Nel film Io, Robot, ispirato ai lavori di Isaac Asimov, il protagonista ha sfiducia nelle macchine perché un androide scegliere di salvare lui dall’annegamento invece di una bambina di 12 anni, in base alle probabilità di sopravvivenza di entrambi.

Asimov ci ha lasciato anche tre leggi della robotica: 

  • Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
  • Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
  • Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge.

Leggi di questo tipo sono suggestive, ma semplicistiche. Possiamo immaginare un futuro in cui le intelligenze artificiali dei robot non concepiscono la violenza – rendendoli puri e innocui – ma cosa succede se un’automobile a guida autonoma è costretta a scegliere tra un impatto mortale per i passeggeri o investire un bambino?

È chiaro che abbiamo bisogno di leggi specifiche che stabiliscano colpe, responsabilità e tutele delle intelligenze artificiali che ci assisteranno in futuro. Purtroppo, però, business e tutela giuridica spesso non vanno d’accordo.

Due approcci

Nel 2016 sono usciti due importanti documenti sul futuro delle intelligenze artificiali e della robotica, ad opera degli Stati Uniti e dell’Unione Europea. 

Il documento americano si chiama Artificial Intelligence, Automation, and the Economy ed è fortemente ottimista sul futuro delle IA, ma non parla della robotica. Il documento europeo, Report with recommendations to the Commission on Civil Law Rules on Robotics si concentra invece sulla robotica e, come da tradizione, è meno ottimista e cerca di regolamentare questi sistemi.

È ironico. Nonostante l’innovazione faccia convergere IA e robotica, i due documenti affrontano i due aspetti come distinti. Forse abbiamo bisogno di concepire in senso più ampio la convivenza tra macchine ed esseri umani.

Un approccio regolatorio può rischiare di limitare il potenziale delle macchine, ma un positivismo che considera guerre informatiche e armi autonome come gli unici rischi per l’umanità è altrettanto preoccupante.

Roboetica

Fortunatamente l’etica legata all’adozione dei robot non è un argomento dell’ultima ora. È da inizio millennio che gli esperti si interrogano sulle implicazioni per i diritti umani, la discriminazione e il pregiudizio, la disparità di accesso alle nuove tecnologie che l’assistenza dei robot intelligenti porterebbe nella società.

Nel 2019 è uscita la seconda edizione di un documento piuttosto interessante, dello IEEE – Global Initiative on Ethics of Autonomous and Intelligent Systems, in cui diversi esperti in roboetica hanno proposto delle linee guida per un design delle macchine che tenga conto in primo luogo dei diritti umani e del rispetto dell’individuo che con esse interagisce.

Gli A/IS riguardano ad esempio il campo medico, dei trasporti, dell’industria, dell’assistenza e dell’amministrazione. Data la profondità a cui agiscono, è importante determinare dei framework etici per allineare queste tecnologie alla società umana.

Nel documento dello IEEE e nel già citato documento degli USA sulle intelligenze artificiali vengono proposti diversi princìpi utili a guidare la progettazione degli A/IS. 

L’integrazione delle macchine intelligenti riguarda la tutela degli individui che interagiscono con esse, ma anche le responsabilità dei produttori, la tutela della privacy riguardo ai servizi offerti, l’impatto di benessere che l’automazione può avere sulla società e sui lavoratori che sostituisce e costringe a riqualificazione e reimpiego.

Siamo solo all’inizio della nostra convivenza con forme di vita artificiale. Saremo in grado di mantenere un punto di vista umano? Se così non fosse, forse non saranno le macchine a danneggiarci, ma la nostra scarsa lungimiranza.

Ascolta l'ultima puntata del podcast di Civiltà Digitale



Ricevi aggiornamenti ed appuntamenti di Civiltà Digitale direttamente nella tua casella di posta