Stephen Hawking ha un messaggio finale per l’umanità: Se non ci prendono i robot, lo faranno i cambiamenti climatici.
Hawking, morto all’età di 76 anni per una malattia neurologica degenerativa all’inizio di quest’anno, offre i suoi pensieri di addio in un libro pubblicato postumo chiamato Brief Answers To The Big Questions, che esce martedì. È un messaggio che vale la pena ascoltare da un uomo che è probabilmente lo scienziato più famoso dopo Einstein, meglio conosciuto per la sua scoperta del funzionamento dei buchi neri. Il libro di Hawking A Brief History of Time ha venduto più di 10 milioni di copie e ha affrontato domande grandi come “Come è nato l’universo?” e “Cosa succederà quando finirà?” in un linguaggio abbastanza semplice per il lettore medio.
In un estratto pubblicato sul Times di Londra nel fine settimana, è divertente e ottimista, anche se ci avverte che l’intelligenza artificiale probabilmente ci supererà in astuzia, che i ricchi sono destinati a svilupparsi in una specie sovrumana, e che il pianeta sta precipitando verso la totale abitabilità.
Il libro di Hawking è in definitiva un verdetto sul futuro dell’umanità. A prima vista, il verdetto è che siamo condannati. Ma scavando più a fondo c’è anche qualcos’altro qui, una fede che la saggezza e l’innovazione umana ostacoleranno la nostra stessa distruzione, anche quando sembriamo decisi a causarla.
I robot potrebbero venire a prenderci
Il più grande avvertimento di Hawking riguarda l’aumento dell’intelligenza artificiale: O sarà la cosa migliore che ci sia mai capitata, o sarà la cosa peggiore. Se non stiamo attenti, potrebbe benissimo essere l’ultima cosa.
L’intelligenza artificiale offre grandi opportunità all’umanità, comprendendo tutto, dagli algoritmi di Google alle auto a guida autonoma al software di riconoscimento facciale. L’IA che abbiamo oggi, tuttavia, è ancora nelle sue fasi primitive. Gli esperti si preoccupano di cosa succederà quando questa intelligenza ci supererà. O, come dice Hawking, “Mentre l’impatto a breve termine dell’IA dipende da chi la controlla, l’impatto a lungo termine dipende dal fatto che possa essere controllata del tutto.”
Questo potrebbe sembrare roba da fantascienza, ma Hawking dice che liquidarlo come tale “sarebbe un errore, e potenzialmente il nostro peggior errore di sempre.”
In confronto ai robot, noi umani siamo piuttosto goffi. Limitati dalla lentezza dell’evoluzione, impieghiamo generazioni per iterare. I robot, invece, possono migliorare il proprio design molto più velocemente, e presto saranno probabilmente in grado di farlo senza il nostro aiuto. Hawking dice che questo creerà una “esplosione di intelligenza” in cui le macchine potrebbero superare la nostra intelligenza “più di quanto la nostra superi quella delle lumache.”
Molte persone pensano che la minaccia dell’IA si concentri sul suo diventare malevola piuttosto che benevola. Hawking ci dissuade da questa preoccupazione, dicendo che il “vero rischio con l’IA non è la malizia, ma la competenza”. Fondamentalmente, l’IA sarà molto brava a raggiungere i suoi obiettivi; se gli umani si mettono in mezzo, potremmo essere nei guai.
“Probabilmente non sei un malvagio odiaformiche che calpesta le formiche per cattiveria, ma se sei a capo di un progetto idroelettrico di energia verde e c’è un formicaio nella regione da inondare, peccato per le formiche. Non mettiamo l’umanità nella posizione di quelle formiche”, scrive Hawking.
Per quelli ancora poco convinti, suggerisce una metafora diversa. “Perché siamo così preoccupati per l’IA? Sicuramente gli umani sono sempre in grado di staccare la spina?” gli chiede un’ipotetica persona.
Hawking risponde: “La gente ha chiesto a un computer: “C’è un Dio?”. E il computer ha detto: ‘Ora c’è’, e ha staccato la spina.”
La fine della vita sulla terra?
Se non sono i robot, è “quasi inevitabile che uno scontro nucleare o una catastrofe ambientale paralizzino la Terra a un certo punto nei prossimi 1.000 anni”, scrive Hawking.
Il suo avvertimento arriva sulla scia dell’allarmante rapporto dell’Intergovernmental Panel on Climate Change (IPCC) della scorsa settimana che avverte che abbiamo solo 12 anni per fare cambiamenti abbastanza massicci da mantenere il riscaldamento globale a livelli moderati. Senza tali cambiamenti, siccità estese, tempeste tropicali più frequenti e l’aumento del livello del mare saranno solo l’inizio.
Il cambiamento climatico inarrestabile è la più grande minaccia per il nostro pianeta, dice, e stiamo agendo con “sconsiderata indifferenza per il nostro futuro sul pianeta Terra.”
In effetti, potremmo non avere affatto un futuro, dice, avvertendoci di non mettere tutte le nostre uova “in un cesto”. E sì, quel cesto è il pianeta Terra. Anche se gli umani trovano una via di fuga, “i milioni di specie che abitano la Terra” saranno condannati, dice. “E questo sarà sulla nostra coscienza come razza.”
Un altro avvertimento non è meno minaccioso. Stiamo entrando in una nuova fase di “evoluzione auto-progettata”. Questa fase significa che presto saremo in grado di liberarci dalle catene dell’evoluzione tradizionale e iniziare a cambiare e migliorare il nostro DNA ora – non tra centinaia di migliaia di anni.
Come per l’IA, la capacità di modificare il nostro DNA ha il potenziale per risolvere i maggiori problemi dell’umanità. In primo luogo, e probabilmente non in un futuro lontano, saremo in grado di riparare i difetti genetici, modificando i geni per cose come la distrofia muscolare e la sclerosi laterale amiotrofica, o SLA, la malattia che gli fu diagnosticata nel 1963. Hawking dice che entro questo secolo, saremo in grado di modificare l’intelligenza, la memoria e la durata della vita. Ed è allora che le cose potrebbero diventare davvero complicate.
Hawking chiama le persone che faranno questo “superuomini”, e probabilmente saranno le élite ricche del mondo. I vecchi umani regolari non saranno in grado di competere, e probabilmente “si estingueranno, o diventeranno poco importanti”. Allo stesso tempo, i superuomini probabilmente “colonizzeranno altri pianeti e stelle.”
Se tutto questo suona piuttosto deprimente, è così. Ma anche se Hawking serve una prognosi apocalittica per il pianeta e per tutti coloro che lo abitano, il suo marchio di ottimismo viene fuori. Ha fede che “la nostra razza ingegnosa avrà trovato un modo per sfuggire ai legami burberi della Terra e quindi sopravviverà al disastro.”
Crede persino che, invece di essere terrificanti, queste possibilità siano eccitanti e che “aumentino notevolmente le possibilità di ispirare il nuovo Einstein. Ovunque possa essere.”
Trovare una via d’uscita dal pianeta Terra, e forse anche dal sistema solare, è un’opportunità per fare quello che hanno fatto gli sbarchi sulla luna: “elevare l’umanità, riunire persone e nazioni, inaugurare nuove scoperte e nuove tecnologie.”
Iscriviti alla newsletter di Future Perfect. Due volte a settimana, riceverai una carrellata di idee e soluzioni per affrontare le nostre più grandi sfide: migliorare la salute pubblica, diminuire la sofferenza umana e animale, ridurre i rischi catastrofici, e – per dirla semplicemente – migliorare nel fare del bene.
Supporta il giornalismo esplicativo di Vox
Ogni giorno a Vox, miriamo a rispondere alle tue domande più importanti e a fornire a te, e al nostro pubblico in tutto il mondo, informazioni che ti permettono di capire. Il lavoro di Vox sta raggiungendo più persone che mai, ma il nostro marchio distintivo di giornalismo esplicativo richiede risorse. Il tuo contributo finanziario non costituirà una donazione, ma permetterà al nostro staff di continuare ad offrire gratuitamente articoli, video e podcast a tutti coloro che ne hanno bisogno. Per favore, considera di dare un contributo a Vox oggi, a partire da soli 3 dollari.