Stephen Hawking tiene un último mensaje para la humanidad: Si los robots no nos atrapan, lo hará el cambio climático.
Hawking, que murió a los 76 años de una enfermedad neurológica degenerativa a principios de este año, ofrece sus pensamientos de despedida en un libro publicado póstumamente llamado Brief Answers To The Big Questions (Breves respuestas a las grandes preguntas), que sale a la venta el martes. Es un mensaje que vale la pena escuchar de un hombre que es probablemente el científico más renombrado desde Einstein, más conocido por su descubrimiento del funcionamiento de los agujeros negros. El libro de Hawking Una breve historia del tiempo vendió más de 10 millones de ejemplares y abordó preguntas tan grandes como «¿Cómo empezó el universo?» y «¿Qué pasará cuando termine?» en un lenguaje lo suficientemente sencillo para el lector medio.
En un extracto publicado en el Times de Londres durante el fin de semana, se muestra divertido y optimista, incluso cuando nos advierte de que es probable que la inteligencia artificial nos supere, que los ricos están destinados a convertirse en una especie sobrehumana y que el planeta se precipita hacia la inhabitabilidad total.
El libro de Hawking es, en última instancia, un veredicto sobre el futuro de la humanidad. A primera vista, el veredicto es que estamos condenados. Pero si se profundiza en ello, también hay algo más, una fe en que la sabiduría y la innovación humanas frustrarán nuestra propia destrucción, incluso cuando parezcamos empeñados en provocarla.
Los robots podrían venir a por nosotros
La mayor advertencia de Hawking es sobre el auge de la inteligencia artificial: O será lo mejor que nos haya pasado, o será lo peor. Si no tenemos cuidado, es muy posible que sea lo último.
La inteligencia artificial encierra grandes oportunidades para la humanidad, abarcando desde los algoritmos de Google hasta los coches autoconducidos o el software de reconocimiento facial. Sin embargo, la IA que tenemos hoy en día todavía está en sus fases primitivas. Los expertos se preocupan por lo que ocurrirá cuando esa inteligencia nos supere. O, como dice Hawking, «mientras que el impacto a corto plazo de la IA depende de quién la controle, el impacto a largo plazo depende de si puede ser controlada en absoluto»
Esto puede sonar a ciencia ficción, pero Hawking dice que descartarla como tal «sería un error, y potencialmente nuestro peor error»
Comparados con los robots, los humanos somos bastante torpes. Limitados por el lento ritmo de la evolución, tardamos generaciones en iterar. Los robots, en cambio, pueden mejorar su propio diseño mucho más rápido, y pronto, probablemente, serán capaces de hacerlo sin nuestra ayuda. Hawking dice que esto creará una «explosión de inteligencia» en la que las máquinas podrían superar nuestra inteligencia «en más de lo que la nuestra supera a la de los caracoles»
Mucha gente piensa que la amenaza de la IA se centra en que se convierta en algo malévolo en lugar de benévolo. Hawking nos descalifica de esta preocupación, diciendo que el «verdadero riesgo con la IA no es la malicia, sino la competencia». Básicamente, la IA será muy buena en el cumplimiento de sus objetivos; si los humanos se interponen en el camino, podríamos tener problemas.
«Probablemente no seas un malvado que odia a las hormigas y las pisa por maldad, pero si estás a cargo de un proyecto hidroeléctrico de energía verde y hay un hormiguero en la región que debe ser inundado, peor para las hormigas. No pongamos a la humanidad en la posición de esas hormigas», escribe Hawking.
Para los que aún no están persuadidos, sugiere una metáfora diferente. «¿Por qué estamos tan preocupados por la IA? Seguro que los humanos siempre son capaces de desenchufarla?», le pregunta una persona hipotética.
Hawking responde: «La gente le preguntó a un ordenador: ‘¿Existe Dios? Y el ordenador dijo: ‘Ya lo hay’, y fundió el enchufe».
¿El fin de la vida en la Tierra?
Si no son los robots, es «casi inevitable que una confrontación nuclear o una catástrofe medioambiental paralice la Tierra en algún momento de los próximos 1.000 años», escribe Hawking.
Su advertencia llega tras el alarmante informe del Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) de la semana pasada, en el que se advierte de que sólo tenemos 12 años para realizar cambios lo suficientemente importantes como para mantener el calentamiento global en niveles moderados. Sin esos cambios, las sequías prolongadas, las tormentas tropicales más frecuentes y el aumento del nivel del mar serán sólo el principio.
El cambio climático desbocado es la mayor amenaza para nuestro planeta, dice, y estamos actuando con «imprudente indiferencia hacia nuestro futuro en el planeta Tierra».
De hecho, podríamos no tener ningún futuro, dice, advirtiéndonos de que no pongamos todos nuestros huevos «en una sola cesta». Y sí, esa cesta es el planeta Tierra. Incluso si los humanos descubren una forma de escapar, «los millones de especies que habitan la Tierra» estarán condenados, dice. «Y eso estará en nuestra conciencia como raza».
Otra advertencia no es menos amenazante. Estamos entrando en una nueva fase de «evolución autodiseñada». Esta etapa significa que pronto seremos capaces de soltar las cadenas de la evolución tradicional y empezar a cambiar y mejorar nuestro propio ADN ahora, no dentro de cientos de miles de años.
Al igual que con la IA, la capacidad de editar nuestro propio ADN tiene el potencial de solucionar los mayores problemas de la humanidad. En primer lugar, y probablemente no en un futuro lejano, podremos reparar los defectos genéticos, editando los genes de cosas como la distrofia muscular y la esclerosis lateral amiotrófica, o ELA, la enfermedad que se le diagnosticó en 1963. Hawking dice que dentro de este siglo podremos editar la inteligencia, la memoria y la duración de la vida. Y es entonces cuando las cosas podrían complicarse de verdad.
Hawking llama a las personas que harán esto «superhumanos», y es probable que sean las élites ricas del mundo. Los viejos humanos normales no podrán competir, y probablemente «se extinguirán, o dejarán de ser importantes». Al mismo tiempo, los superhumanos probablemente estarán «colonizando otros planetas y estrellas»
Si todo eso suena bastante deprimente, lo es. Pero incluso cuando Hawking ofrece un pronóstico apocalíptico para el planeta y todos los que lo habitan, su marca de optimismo aparece. Tiene fe en que «nuestra ingeniosa raza habrá encontrado una forma de escapar de las hoscas ataduras de la Tierra y, por lo tanto, sobrevivirá al desastre»
Incluso cree que, en lugar de ser aterradoras, estas posibilidades son emocionantes y que «aumentan enormemente las posibilidades de inspirar al nuevo Einstein. Dondequiera que esté»
Descubrir una forma de salir del planeta Tierra, y quizá incluso del sistema solar, es una oportunidad para hacer lo que hicieron los alunizajes: «elevar a la humanidad, unir a las personas y a las naciones, dar paso a nuevos descubrimientos y nuevas tecnologías»
Inscríbete en el boletín Future Perfect. Dos veces a la semana, recibirás un resumen de ideas y soluciones para hacer frente a nuestros mayores desafíos: mejorar la salud pública, disminuir el sufrimiento humano y animal, aliviar los riesgos catastróficos y, por decirlo de forma sencilla, mejorar haciendo el bien.
Apoya el periodismo explicativo de Vox
Cada día en Vox, nos proponemos responder a tus preguntas más importantes y proporcionarte, a ti y a nuestra audiencia de todo el mundo, información que te empodere a través del entendimiento. El trabajo de Vox está llegando a más gente que nunca, pero nuestra marca distintiva de periodismo explicativo requiere recursos. Tu aportación económica no constituye una donación, pero permitirá a nuestro personal seguir ofreciendo artículos, vídeos y podcasts gratuitos a todos los que los necesiten. Por favor, considera hacer una contribución a Vox hoy, desde tan sólo 3 dólares.