Un incidente mortale con la Tesla Model X solleva un po’ di domande sull’automazione e l’innovazione tecnologica.
Volete un assaggio di futuri possibili? Tenete d’occhio la Silicon Valley. L’area della California, nota per avere la più alta concentrazione di società leader mondiali nel campo del software e della tecnologia avanzata, fa anche da anteprima delle utopie più avveniristiche. Utopie per alcuni, distopie per altri. Dalla Silicon Valley si diffondono nel mondo le visioni di profeti della tecnica come Ray Kurzweil, dirigente di Google, sviluppatore, pensatore, che predica l’avvento della transumanità e delle macchine pensanti, e la sconfitta della morte attraverso il cyber-perfezionamento della biologia umana. O di magnati filantropi come Elon Musk, che vuole salvare l’umanità dalla catastrofe climatica impiantando colonie su Marte, e naturalmente vendendo le sue autovetture elettriche a basso impatto ecologico.
Nella Silicon Valley quello che a noi comuni mortali sembra uno scenario fantascientifico può essere realtà quotidiana. Può succedere che i dipendenti Apple, o Facebook, vadano al lavoro sulla propria Tesla elettrica, liberi di godersi i verdi ed ordinati paesaggi di Palo Alto, CA, o di controllare l’agenda, mentre il pilota automatico integrato nella vettura li conduce diligentemente a destinazione. Ma nel tragitto dal sogno alla realtà possono sempre esserci incidenti.
Nel marzo scorso proprio un ingegnere della Apple, Walter Huang, ha trovato la morte nello scontro della sua automobile Tesla Model X con lo spartitraffico di cemento che delimitava lo svincolo di uscita dalla superstrada, mentre il pilota automatico era attivato. La società di Musk ha rilasciato una dichiarazione ufficiale ricordando che il cosiddetto “autopilot system” richiede in realtà che il conducente sia sempre pronto a intervenire manualmente – cosa che a rigor di termini ne fa piuttosto un sistema di guida assistita, definizione leggermente meno glamorous. Secondo quanto rilevato dal diario elettronico di bordo, Huang non aveva il controllo manuale del volante durante gli ultimi secondi prima dell’impatto, nonostante i ripetuti avvertimenti del sistema. Le vere cause dell’incidente sono ancora da accertare, e negli ultimi giorni le indagini hanno sollevato nuove domande sulla tecnologia emergente della guida autonoma.
Accidents happen, rispondono i paladini dell’innovazione. Non si può pesare sulla stessa bilancia un singolo episodio, tragico ma probabilmente accidentale, contro i benefici della autonomous driving technology. E tanto meno è possibile tracciare un paragone tra questa specifica linea di sviluppo tecnico e il progetto di creare una vera e propria intelligenza artificiale. Lo stesso Musk, che ha continuato attraverso tutte le peripezie legali a difendere a spada tratta la guida autonoma in nome della supposta diminuzione dei rischi, ritiene che l’ascesa delle macchine intelligenti sia uno dei maggiori pericoli a cui l’umanità va incontro. Al punto da ingaggiare un selvaggio scontro di opinione senza esclusione di tweet con il Ceo di Facebook Mark Zuckerberg a fare la parte dell’avvocato di questo diavolo/demiurgo faustiano.
Questa storia ha comunque un paio di suggerimenti da offrire a chi è interessato a riflettere sul futuro dell’uomo e della macchina.
Primo punto: l’evoluzione tecnologica, con tutti i suoi aspetti entusiasmanti e inquietanti, è sempre anche una questione di definizione, di linguaggio e di retorica, cioè di capacità di persuasione. Rifacendoci alle dimensioni ridotte del caso di esempio: ciò che l’ufficio marketing e promozione aveva deciso di denominare senza troppi scrupoli “pilota automatico” rientra nelle più modeste proporzioni di un “sistema di guida assistita”. Ma il concetto di artificial intelligence è da sempre accompagnato dal problema della sua definizione; fino da Alan Turing, padre dell’informatica e dell’omonimo test, che servirebbe ad identificare le macchine pensanti. Di cui Turing scrisse: “Ritengo che, alla fine di questo secolo, l’uso delle parole e l’opinione comune saranno cambiati a tal punto che si potrà parlare di macchine che pensano senza essere contraddetti”. Le parole sono importanti: evidentemente non è uguale dire “Un giorno esisteranno macchine pensanti” o invece “Un giorno l’idea di pensiero sarà cambiata in modo da includere anche le macchine”. Preso atto che la “comunicazione” può cambiare il significato delle parole, restiamo liberi di chiederci quale ne sia il vero significato.
Secondo punto: come tutto, anche i processi di automazione prima o poi si risolvono in sede legale. L’argomento principale dei fautori, cifre più o meno attendibili alla mano, è sempre lo stesso: l’automazione riduce il rischio di incidenti, perché una macchina non può commettere errori. Ma i programmatori possono; e quando gli incidenti accadono, si cercano i responsabili.
La responsabilità è il convitato di pietra in questa appassionata querelle antichi contro moderni attorno all’AI. Non si dà intelligenza senza libertà; né libertà senza responsabilità. Nell’ipotesi che nel futuro i robot intelligenti facciano veramente la loro comparsa, è ragionevole pensare che essi sarebbero anche imputabili per le proprie azioni; proprio come nei cicli narrativi scaturiti dall’immaginazione di Isaac Asimov. Per ora, viene il sospetto che utopie prometeiche e distopie alla Matrix siano diritto e rovescio della stessa fantasia: uguali e contrarie evasioni dalla fatica di essere umani. Finché un imprevisto, magari un banale incidente, non ci riporti alla realtà.
Francesco Benati
Tempi.it, 24 giugno 2018