La última advertencia de Stephen Hawking para la humanidad: La IA viene a por nosotros

Stephen Hawking tiene un mensaje final para la humanidad: Si los robots no nos atrapan, lo hará el cambio climático.

Hawking, que murió a los 76 años de una enfermedad neurológica degenerativa a principios de este año, ofrece sus pensamientos de despedida en un libro publicado póstumamente llamado Breves respuestas a las grandes preguntas, que sale a la venta el martes. Es un mensaje que vale la pena escuchar de un hombre que es probablemente el científico más renombrado desde Einstein, más conocido por su descubrimiento del funcionamiento de los agujeros negros. El libro de Hawking Una breve historia del tiempo vendió más de 10 millones de ejemplares y abordó preguntas tan grandes como «¿Cómo empezó el universo?» y «¿Qué pasará cuando termine?» en un lenguaje lo suficientemente sencillo para el lector medio.

En un extracto publicado en el Times de Londres durante el fin de semana, se muestra divertido y optimista, incluso cuando nos advierte de que la inteligencia artificial probablemente sea más inteligente que nosotros, que los ricos están destinados a convertirse en una especie sobrehumana y que el planeta se precipita hacia la inhabitabilidad total.

El libro de Hawking es, en última instancia, un veredicto sobre el futuro de la humanidad. A primera vista, el veredicto es que estamos condenados. Pero si se profundiza en el tema, también hay algo más, una fe en que la sabiduría y la innovación humanas frustrarán nuestra propia destrucción, incluso cuando parezcamos empeñados en provocarla.

Los robots podrían venir a por nosotros

La mayor advertencia de Hawking es sobre el auge de la inteligencia artificial: O será lo mejor que nos haya pasado, o será lo peor. Si no tenemos cuidado, es muy posible que sea lo último.

La inteligencia artificial encierra grandes oportunidades para la humanidad, abarcando desde los algoritmos de Google hasta los coches autoconducidos o el software de reconocimiento facial. Sin embargo, la IA que tenemos hoy en día todavía está en sus fases primitivas. Los expertos se preocupan por lo que ocurrirá cuando esa inteligencia nos supere. O, como dice Hawking, «mientras que el impacto a corto plazo de la IA depende de quién la controle, el impacto a largo plazo depende de si puede ser controlada en absoluto».

Esto puede sonar a ciencia ficción, pero Hawking dice que descartarlo como tal «sería un error, y potencialmente nuestro peor error».

Comparados con los robots, los humanos somos bastante torpes. Limitados por el lento ritmo de la evolución, tardamos generaciones en iterar. Los robots, en cambio, pueden mejorar su propio diseño mucho más rápido, y pronto, probablemente, serán capaces de hacerlo sin nuestra ayuda. Hawking dice que esto creará una «explosión de inteligencia» en la que las máquinas podrían superar nuestra inteligencia «en más de lo que la nuestra supera a la de los caracoles».

Mucha gente piensa que la amenaza de la IA se centra en que se convierta en malévola en lugar de benévola. Hawking nos disipa esta preocupación, diciendo que el «verdadero riesgo con la IA no es la malicia, sino la competencia». Básicamente, la IA será muy buena a la hora de cumplir sus objetivos; si los humanos se interponen en el camino, podríamos tener problemas.

«Probablemente no seas un malvado que odia a las hormigas y las pisa por maldad, pero si estás a cargo de un proyecto hidroeléctrico de energía verde y hay un hormiguero en la región que se va a inundar, peor para las hormigas. No pongamos a la humanidad en la posición de esas hormigas», escribe Hawking.

Para los que aún no están persuadidos, sugiere una metáfora diferente. «¿Por qué estamos tan preocupados por la IA? Seguramente los humanos siempre son capaces de desenchufarse», le pregunta una persona hipotética.

Hawking responde: «La gente le preguntó a un ordenador: ‘¿Existe Dios?’. Y el ordenador dijo: ‘Ahora lo hay’, y fundió el enchufe».

¿El fin de la vida en la Tierra?

Si no son los robots, es «casi inevitable que una confrontación nuclear o una catástrofe medioambiental paralice la Tierra en algún momento de los próximos 1.000 años», escribe Hawking.

Su advertencia llega tras el alarmante informe del Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) de la semana pasada, en el que se advierte que sólo tenemos 12 años para realizar cambios lo suficientemente importantes como para mantener el calentamiento global en niveles moderados. Sin esos cambios, las sequías prolongadas, las tormentas tropicales más frecuentes y el aumento del nivel del mar serán sólo el principio.

El cambio climático galopante es la mayor amenaza para nuestro planeta, dice, y estamos actuando con «imprudente indiferencia hacia nuestro futuro en el planeta Tierra».

De hecho, podríamos no tener ningún futuro, dice, advirtiéndonos de que no pongamos todos los huevos «en una sola cesta». Y sí, esa cesta es el planeta Tierra. Incluso si los humanos descubren una forma de escapar, «los millones de especies que habitan la Tierra» estarán condenados, dice. «Y eso estará en nuestra conciencia como raza».

Otra advertencia no es menos amenazante. Estamos entrando en una nueva fase de «evolución autodiseñada». Esta etapa significa que pronto podremos desprendernos de las cadenas de la evolución tradicional y empezar a cambiar y mejorar nuestro propio ADN ahora, no dentro de cientos de miles de años.

Al igual que con la IA, la capacidad de editar nuestro propio ADN tiene el potencial de solucionar los mayores problemas de la humanidad. En primer lugar, y probablemente no en un futuro lejano, seremos capaces de reparar los defectos genéticos, editando los genes de cosas como la distrofia muscular y la esclerosis lateral amiotrófica, o ALS, la enfermedad que se le diagnosticó en 1963. Hawking dice que dentro de este siglo seremos capaces de editar la inteligencia, la memoria y la duración de la vida. Y es entonces cuando las cosas podrían complicarse realmente.

Hawking llama a las personas que harán esto «superhumanos», y es probable que sean las élites ricas del mundo. Los viejos humanos normales no podrán competir, y probablemente «se extinguirán, o perderán importancia». Al mismo tiempo, los superhumanos probablemente estarán «colonizando otros planetas y estrellas».

Si todo esto suena bastante deprimente, lo es. Pero incluso cuando Hawking ofrece un pronóstico apocalíptico para el planeta y todos los que lo habitan, su marca de optimismo aparece. Tiene fe en que «nuestra ingeniosa raza habrá encontrado una forma de escapar de las hoscas ataduras de la Tierra y, por tanto, sobrevivirá a la catástrofe»

Incluso cree que, en lugar de ser aterradoras, estas posibilidades son emocionantes y que «aumentan enormemente las posibilidades de inspirar al nuevo Einstein. Dondequiera que esté».

Descubrir un camino fuera del planeta Tierra, y tal vez incluso del sistema solar, es una oportunidad para hacer lo que hicieron los alunizajes: «elevar a la humanidad, unir a las personas y a las naciones, dar paso a nuevos descubrimientos y nuevas tecnologías»

Inscríbete en el boletín Future Perfect. Dos veces a la semana, recibirás un resumen de ideas y soluciones para hacer frente a nuestros mayores desafíos: mejorar la salud pública, disminuir el sufrimiento humano y de los animales, aliviar los riesgos catastróficos y -para decirlo simplemente- mejorar haciendo el bien.

Apoya el periodismo explicativo de Vox

Cada día en Vox, nos proponemos responder a tus preguntas más importantes y proporcionarte, a ti y a nuestra audiencia en todo el mundo, información que te empodere a través del entendimiento. El trabajo de Vox llega a más gente que nunca, pero nuestra marca distintiva de periodismo explicativo requiere recursos. Tu aportación económica no constituye una donación, pero permitirá a nuestro personal seguir ofreciendo artículos, vídeos y podcasts gratuitos a todos los que los necesiten. Por favor, considera hacer una contribución a Vox hoy, desde tan sólo 3 dólares.