Stephen Hawkings sista varning till mänskligheten:

Stephen Hawking har ett sista budskap till mänskligheten:

Hawking, som avled vid 76 års ålder av en degenerativ neurologisk sjukdom tidigare i år, ger sina sista tankar i en postumt publicerad bok med titeln Brief Answers To The Big Questions, som kommer ut på tisdag. Det är ett budskap värt att lyssna på från en man som förmodligen är den mest kända vetenskapsmannen sedan Einstein, mest känd för sin upptäckt av hur svarta hål fungerar. Hawkings bok A Brief History of Time sålde mer än 10 miljoner exemplar och tog upp så stora frågor som ”Hur började universum?” och ”Vad kommer att hända när det tar slut?” på ett språk som är tillräckligt enkelt för den vanliga läsaren.

I ett utdrag som publicerades i Times of London under helgen är han rolig och optimistisk, även om han varnar oss för att artificiell intelligens sannolikt kommer att överlista oss, att de rika kommer att utvecklas till en övermänsklig art och att planeten rusar mot total beboelighet.

Hawkings bok är i slutändan en dom över mänsklighetens framtid. Vid första anblicken är domen att vi är dömda. Men om man gräver djupare finns det något annat här också, en tro på att mänsklig visdom och innovation kommer att förhindra vår egen undergång, även när vi tycks vara fast beslutna att åstadkomma den.

Robotarna kan komma efter oss

Hawkings största varning handlar om framväxten av artificiell intelligens: Det kommer antingen att bli det bästa som någonsin hänt oss, eller så kommer det att bli det värsta. Om vi inte är försiktiga kan det mycket väl bli det sista.

Artificiell intelligens innebär stora möjligheter för mänskligheten och omfattar allt från Googles algoritmer till självkörande bilar och programvara för ansiktsigenkänning. Den AI vi har idag är dock fortfarande i ett primitivt skede. Experter oroar sig för vad som kommer att hända när denna intelligens överträffar oss. Eller som Hawking uttrycker det: ”Medan AI:s kortsiktiga inverkan beror på vem som kontrollerar den, beror den långsiktiga inverkan på om den kan kontrolleras överhuvudtaget.”

Detta kan låta som science fiction, men Hawking säger att det skulle vara ett misstag att avfärda det som ett sådant, ”och det skulle kunna vara vårt värsta misstag någonsin.”

Jämfört med robotar är vi människor ganska klumpiga. Begränsade av evolutionens långsamma takt tar det oss generationer att iterera. Robotar, å andra sidan, kan förbättra sin egen design mycket snabbare, och snart kommer de förmodligen att kunna göra det utan vår hjälp. Hawking säger att detta kommer att skapa en ”intelligensexplosion” där maskinerna kan överträffa vår intelligens ”mer än vad vår intelligens överträffar sniglar”.

Många människor tror att hotet från artificiell intelligens är inriktat på att den blir illvillig snarare än välvillig. Hawking avfärdar oss från denna oro och säger att ”den verkliga risken med artificiell intelligens är inte illvilja, utan kompetens”. I grund och botten kommer artificiell intelligens att vara mycket bra på att uppnå sina mål; om människor kommer i vägen kan vi få problem.

”Du är förmodligen inte en ond myrhatare som trampar på myror av illvilja, men om du ansvarar för ett vattenkraftsprojekt för grön energi och det finns en myrstack i det område som ska översvämmas, så är det synd om myrorna. Låt oss inte sätta mänskligheten i dessa myrors situation”, skriver Hawking.

För dem som fortfarande inte är övertygade föreslår han en annan metafor. ”Varför är vi så oroliga för artificiell intelligens? Människor kan väl alltid dra ur kontakten?” frågar en hypotetisk person.

Hawking svarar: Folk frågade en dator: ”Finns det en Gud? Och datorn sa: ’Det finns det nu’ och drog ut kontakten.”

Har livet på jorden tagit slut?

Om det inte är robotarna är det ”nästan oundvikligt att antingen en kärnvapenkonfrontation eller en miljökatastrof kommer att lamslå jorden någon gång under de kommande 1 000 åren”, skriver Hawking.

Hans varning kommer i spåren av förra veckans alarmerande rapport från Intergovernmental Panel on Climate Change (IPCC) som varnar för att vi bara har 12 år på oss att göra tillräckligt stora förändringar för att hålla den globala uppvärmningen på måttliga nivåer. Utan sådana förändringar kommer utdragen torka, mer frekventa tropiska stormar och stigande havsnivåer bara att vara början.

De galopperande klimatförändringarna är det största hotet mot vår planet, säger han, och vi agerar med ”hänsynslös likgiltighet inför vår framtid på planeten Jorden”.

I själva verket kanske vi inte har någon framtid alls, säger han, och varnar oss för att lägga alla våra ägg ”i en och samma korg”. Och ja, den korgen är planeten jorden. Även om människorna hittar ett sätt att fly kommer ”de miljontals arter som bor på jorden” att vara dödsdömda, säger han. ”Och det kommer att ligga på vårt samvete som ras.”

En annan varning är inte mindre hotfull. Vi går in i en ny fas av ”självdesignad evolution”. Denna fas innebär att vi snart kommer att kunna kasta av oss den traditionella evolutionens kedjor och börja ändra och förbättra vårt eget DNA nu – inte om hundratusentals år.

Som med AI har förmågan att redigera vårt eget DNA potential att lösa mänsklighetens största problem. Först, och troligen inte i en avlägsen framtid, kommer vi att kunna reparera genetiska defekter och redigera ut gener för saker som muskeldystrofi och amyotrofisk lateralskleros, eller ALS, den sjukdom som han diagnostiserades med 1963. Hawking säger att vi inom detta århundrade kommer att kunna redigera intelligens, minne och livslängd. Och det är då saker och ting kan bli riktigt komplicerade.

Hawking kallar de människor som kommer att göra detta för ”supermänniskor”, och de kommer sannolikt att vara världens rika elit. Vanliga gamla människor kommer inte att kunna konkurrera och kommer förmodligen att ”dö ut eller bli oviktiga”. Samtidigt kommer supermänniskor troligen att ”kolonisera andra planeter och stjärnor.”

Om allt detta låter ganska deprimerande så är det det också. Men även när Hawking serverar en apokalyptisk prognos för planeten och alla som bor på den, kommer hans typ av optimism fram. Han tror att ”vår geniala ras kommer att ha hittat ett sätt att slippa jordens sura band och kommer därför att överleva katastrofen.”

Han tror till och med att dessa möjligheter, i stället för att vara skräckinjagande, är spännande och att det ”kraftigt ökar chanserna att inspirera den nya Einstein”. Var hon än befinner sig.”

Att hitta en väg bort från planeten Jorden, och kanske till och med från solsystemet, är en möjlighet att göra det som månlandningarna gjorde: ”höja mänskligheten, föra människor och nationer samman, inleda nya upptäckter och ny teknik.”

Anmäl dig till Future Perfect-nyhetsbrevet. Två gånger i veckan får du en sammanställning av idéer och lösningar för att ta itu med våra största utmaningar: förbättra folkhälsan, minska människors och djurs lidande, lindra katastrofala risker och – för att uttrycka det enkelt – bli bättre på att göra gott.

Stötta Vox förklarande journalistik

Varje dag på Vox strävar vi efter att besvara dina viktigaste frågor och förse dig, och vår publik runt om i världen, med information som ger dig makt genom förståelse. Vox arbete når fler människor än någonsin, men vårt utmärkande varumärke för förklarande journalistik kräver resurser. Ditt ekonomiska bidrag kommer inte att utgöra en donation, men det kommer att göra det möjligt för vår personal att fortsätta att erbjuda gratis artiklar, videor och podcasts till alla som behöver dem. Överväg att ge ett bidrag till Vox i dag, från så lite som 3 dollar.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *