Stephen Hawking a un dernier message pour l’humanité : Si les robots ne nous attrapent pas, le changement climatique le fera.
Hawking, décédé à l’âge de 76 ans d’une maladie neurologique dégénérative plus tôt cette année, offre ses réflexions finales dans un livre publié à titre posthume intitulé Brief Answers To The Big Questions, qui sort mardi. C’est un message qui mérite d’être entendu de la part d’un homme qui est probablement le scientifique le plus célèbre depuis Einstein, surtout connu pour sa découverte du fonctionnement des trous noirs. Le livre de Hawking, Une brève histoire du temps, s’est vendu à plus de 10 millions d’exemplaires et a abordé des questions aussi importantes que « Comment l’univers a-t-il commencé ? » et « Que se passera-t-il quand il se terminera ? » dans un langage suffisamment simple pour le lecteur moyen.
Dans un extrait publié dans le Times de Londres ce week-end, il est drôle et optimiste, même s’il nous avertit que l’intelligence artificielle est susceptible de nous dépasser, que les riches sont voués à se développer en une espèce surhumaine et que la planète se précipite vers une inhabitabilité totale.
Le livre de Hawking est finalement un verdict sur l’avenir de l’humanité. À première vue, le verdict est que nous sommes condamnés. Mais creusez plus profondément et il y a aussi quelque chose d’autre ici, une foi dans le fait que la sagesse et l’innovation humaines contrecarreront notre propre destruction, même lorsque nous semblons résolus à la provoquer.
Les robots pourraient venir pour nous
Le plus grand avertissement de Hawking concerne la montée de l’intelligence artificielle : Soit ce sera la meilleure chose qui nous soit jamais arrivée, soit ce sera la pire. Si nous ne faisons pas attention, cela pourrait très bien être la dernière chose.
L’intelligence artificielle offre de grandes possibilités à l’humanité, englobant tout, des algorithmes de Google aux voitures à conduite autonome en passant par les logiciels de reconnaissance faciale. L’IA dont nous disposons aujourd’hui n’en est toutefois qu’à ses débuts. Les experts s’inquiètent de ce qui se passera lorsque cette intelligence nous dépassera. Ou, comme le dit Hawking, « Alors que l’impact à court terme de l’IA dépend de qui la contrôle, l’impact à long terme dépend de la possibilité de la contrôler tout court. »
Cela peut sembler relever de la science-fiction, mais Hawking dit que l’écarter comme tel « serait une erreur, et potentiellement notre pire erreur. »
Par rapport aux robots, nous, les humains, sommes plutôt maladroits. Limités par la lenteur de l’évolution, il nous faut des générations pour itérer. Les robots, en revanche, peuvent améliorer leur propre conception beaucoup plus rapidement, et bientôt, ils seront probablement capables de le faire sans notre aide. Hawking affirme que cela créera une « explosion d’intelligence » dans laquelle les machines pourraient dépasser notre intelligence « de plus que la nôtre ne dépasse celle des escargots ».
Beaucoup de gens pensent que la menace de l’IA est centrée sur le fait qu’elle devienne malveillante plutôt que bienveillante. Hawking nous détrompe de cette inquiétude, en affirmant que le « vrai risque avec l’IA n’est pas la malveillance, mais la compétence. » En gros, l’IA sera très douée pour atteindre ses objectifs ; si les humains se mettent en travers de son chemin, nous pourrions avoir des problèmes.
« Vous n’êtes probablement pas un méchant fourmilier qui marche sur les fourmis par malice, mais si vous êtes responsable d’un projet hydroélectrique d’énergie verte et qu’il y a une fourmilière dans la région à inonder, tant pis pour les fourmis. Ne plaçons pas l’humanité dans la position de ces fourmis », écrit Hawking.
Pour ceux qui ne sont toujours pas convaincus, il suggère une autre métaphore. « Pourquoi sommes-nous si inquiets de l’IA ? Les humains sont sûrement toujours capables de tirer la prise ? » lui demande une personne hypothétique.
Hawking répond : « Des gens ont demandé à un ordinateur : « Y a-t-il un Dieu ? ». Et l’ordinateur a répondu : ‘Il y en a un maintenant’, et a fusionné la prise. »
La fin de la vie sur terre ?
Si ce ne sont pas les robots, il est « presque inévitable qu’une confrontation nucléaire ou une catastrophe environnementale paralyse la Terre à un moment donné dans les 1000 prochaines années », écrit Hawking.
Sa mise en garde intervient après la publication, la semaine dernière, du rapport alarmant du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) qui prévient que nous n’avons que 12 ans pour effectuer des changements suffisamment massifs pour maintenir le réchauffement climatique à des niveaux modérés. Sans ces changements, les sécheresses prolongées, les tempêtes tropicales plus fréquentes et l’augmentation du niveau des mers ne seront que le début.
Le changement climatique incontrôlé est la plus grande menace pour notre planète, dit-il, et nous agissons avec « une indifférence insouciante pour notre avenir sur la planète Terre. »
En fait, nous pourrions ne pas avoir d’avenir du tout, dit-il, nous avertissant de ne pas mettre tous nos œufs « dans le même panier ». Et oui, ce panier est la planète Terre. Même si les humains trouvent un moyen de s’échapper, « les millions d’espèces qui habitent la Terre » seront condamnées, dit-il. « Et cela sera sur notre conscience en tant que race. »
Un autre avertissement n’est pas moins menaçant. Nous entrons dans une nouvelle phase d' »évolution auto-conçue ». Cette étape signifie que nous serons bientôt en mesure de nous défaire des chaînes de l’évolution traditionnelle et de commencer à modifier et à améliorer notre propre ADN dès maintenant – et non dans des centaines de milliers d’années.
Comme pour l’IA, la capacité à modifier notre propre ADN détient le potentiel de résoudre les plus grands problèmes de l’humanité. Tout d’abord, et probablement pas dans un avenir lointain, nous serons en mesure de réparer les défauts génétiques, en éditant les gènes pour des choses comme la dystrophie musculaire et la sclérose latérale amyotrophique, ou SLA, la maladie avec laquelle il a été diagnostiqué en 1963. Selon Hawking, au cours de ce siècle, nous serons en mesure de modifier l’intelligence, la mémoire et la durée de vie. Et c’est là que les choses pourraient devenir vraiment compliquées.
Hawking appelle les gens qui feront cela des « surhommes », et ils seront probablement les élites riches du monde. Les vieux humains ordinaires ne seront pas en mesure de rivaliser et vont probablement « s’éteindre, ou devenir insignifiants. » Dans le même temps, les surhommes seront probablement « en train de coloniser d’autres planètes et étoiles. »
Si tout cela semble assez déprimant, c’est le cas. Mais même si Hawking sert un pronostic apocalyptique pour la planète et tous ses habitants, sa marque d’optimisme transparaît. Il a foi en ce que « notre race ingénieuse aura trouvé un moyen de se soustraire aux liens revêches de la Terre et survivra donc à la catastrophe. »
Il croit même qu’au lieu d’être terrifiantes, ces possibilités sont exaltantes et que cela « augmente considérablement les chances d’inspirer le nouvel Einstein. Où qu’elle puisse être. »
Trouver un moyen de quitter la planète Terre, et peut-être même le système solaire, est une occasion de faire ce que les alunissages ont fait : « élever l’humanité, rapprocher les gens et les nations, inaugurer de nouvelles découvertes et de nouvelles technologies. »
S’inscrire à la newsletter de Future Perfect. Deux fois par semaine, vous recevrez un récapitulatif d’idées et de solutions pour relever nos plus grands défis : améliorer la santé publique, diminuer la souffrance humaine et animale, atténuer les risques catastrophiques et – pour faire simple – s’améliorer pour faire le bien.
Soutenir le journalisme explicatif de Vox
Chaque jour, chez Vox, nous cherchons à répondre à vos questions les plus importantes et à vous fournir, ainsi qu’à notre public dans le monde entier, des informations qui vous donnent du pouvoir en vous permettant de comprendre. Le travail de Vox touche plus de personnes que jamais, mais notre marque distinctive de journalisme explicatif nécessite des ressources. Votre contribution financière ne constituera pas un don, mais elle permettra à notre personnel de continuer à offrir gratuitement des articles, des vidéos et des podcasts à tous ceux qui en ont besoin. Pensez à contribuer à Vox dès aujourd’hui, à partir de 3 dollars seulement.
.