_
_
_
_
_
FUTURO

Los cinco jinetes del apocalipsis

El investigador Anders Sandberg analiza los mayores riesgos para el ser humano

Humo cerca de una central alimentada con carbón en Shanxi, China, en noviembre de 2015.
Humo cerca de una central alimentada con carbón en Shanxi, China, en noviembre de 2015. Kevin Frayer (Getty Images )

La gente lleva miles de años hablando de los apocalipsis, pero pocos han intentado prevenirlos, y es que a los humanos no se nos da bien atajar los problemas que aún no han sucedido. El motivo, entre otras cosas, es la heurística de la disponibilidad: la tendencia a magnificar la probabilidad de que ocurran acontecimientos de los que conocemos ejemplos, e infravalorar los acontecimientos que no podemos recordar fácilmente.

Sumidos en el barullo cotidiano de las “crisis” a las que se enfrenta la humanidad, nos olvidamos de las muchas generaciones que, confiemos, están por venir. No en las que vivirán dentro de 200 años, sino en 1.000 o 10.000 años. Nos enfrentamos a riesgos, llamados existenciales, que amenazan con barrer del mapa a la humanidad. No se trata solo de los riesgos de grandes desastres, sino de desastres que podrían acabar con la historia.

La actividad humana moldea continuamente el futuro de nuestro planeta y, aunque aún estemos lejos de poder controlar los desastres naturales, estamos desarrollando una tecnología que podría ayudarnos a mitigarlos o, cuando menos, capearlos. No obstante, seguimos sin estudiar esos riesgos como se debería; existe una sensación de impotencia y fatalismo ante ellos. Con eso en mente, he seleccionado las que, en mi opinión, son las cinco mayores amenazas para la humanidad. Conviene, eso sí, ir sobre aviso: no se trata de una lista definitiva. Debemos esperar la aparición de otras. Asimismo, algunos riesgos que hoy en día parecen serios podrían desaparecer a medida que aumente nuestro conocimiento. Las probabilidades también cambian con el paso del tiempo; a veces, los riesgos nos preocupan y les ponemos remedio.

Por último, que algo sea posible y peligroso en potencia no significa que merezca la pena preocuparse por ello. Hay riesgos contra los que no podemos hacer absolutamente nada, como los estallidos de rayos gamma producidos por la explosión de una galaxia. Pero cuando aprendemos que podemos hacer algo al respecto, las prioridades cambian. Gracias a las instalaciones sanitarias, las vacunas y los antibióticos, por ejemplo, la peste pasó de ser un castigo divino a un problema de sanidad pública.

Nos enfrentamos a riesgos, llamados existenciales, que amenazan con barrer del mapa a la humanidad.

1. Guerra nuclear

Aunque solo se han usado dos armas nucleares hasta la fecha —las de Hiroshima y Nagasaki en la Segunda Guerra Mundial— y los arsenales nucleares están lejos del cénit que alcanzaron durante la Guerra Fría, es un error pensar que es imposible que se produzca una guerra nuclear. De hecho, no es improbable.

La crisis de los misiles en Cuba estuvo a punto de alcanzar un nivel nuclear. Suponiendo que se produzca un acontecimiento así cada 69 años, y que hay un tercio de posibilidades de que escale hasta convertirse en una guerra nuclear, la probabilidad de una catástrofe así aumenta hasta aproximadamente una de cada 200 al año.

Para más inri, la crisis de los misiles en Cuba solo fue el caso más conocido. La historia de la disuasión nuclear entre la Unión Soviética y Estados Unidos está repleta de soluciones por los pelos y errores peligrosos. La probabilidad actual cambia dependiendo de las tensiones internacionales, pero parece inverosímil que la posibilidad sea mucho menor a una entre 1.000 al año.

El riesgo de que alguien ponga en circulación algo devastador es bajo, pero a medida que la biotecnología se vuelva más barata, más personas tendrán la capacidad de crear enfermedades más nocivas 

Una guerra nuclear a gran escala entre las principales potencias mataría a centenares de millones de personas directamente o a través de sus secuelas: un desastre inimaginable. Sin embargo, no es suficiente para convertirla en un riesgo existencial.

De la misma manera, los riesgos de la lluvia radioactiva suelen exagerarse: a escala local pueden ser mortíferos, pero a escala mundial se trata de un problema relativamente limitado. Aunque se habló de las bombas de cobalto como una hipotética arma apocalíptica cuya lluvia radioactiva mataría a todo el mundo, en la práctica son difíciles y caras de construir. Y las posibilidades físicas de fabricarlas también son muy reducidas.

La auténtica amenaza es el invierno nuclear, es decir, que el hollín lanzado a la estratosfera provoque un enfriamiento y una sequía mundial que se alarguen varios años. Las simulaciones climáticas modernas muestran que podría condenar la agricultura de buena parte del planeta durante años.

2. Pandemia provocada por la bioingeniería

Las pandemias naturales han matado a más personas que las guerras. Sin embargo, no reúnen las condiciones para suponer amenazas existenciales: suele haber personas inmunes al patógeno, y los vástagos de los supervivientes serían aún más resistentes. La evolución tampoco favorece a los parásitos que se cargan a sus huéspedes, que es la razón por la que la sífilis dejó de ser una asesina virulenta y se convirtió en una enfermedad crónica a medida que se extendía por Europa.

Por desgracia, ahora somos capaces de empeorar las enfermedades. En estos momentos, el riesgo de que alguien ponga en circulación deliberadamente algo devastador es bajo, pero a medida que la biotecnología se vuelva más sofisticada y barata, un mayor número de personas tendrán la capacidad de hacer más nocivas las enfermedades.

El número de víctimas de las armas biológicas y los brotes epidémicos parece tener una distribución de ley de potencias: la mayoría de los ataques causan pocas víctimas, y unos pocos matan a muchos. Habida cuenta de las cifras actuales, el riesgo de una pandemia mundial por bioterrorismo parece ínfimo. Pero solo estamos hablando de bioterrorismo: los Gobiernos han matado a mucha más gente que los terroristas con armas químicas (el programa de guerra biológica japonés de la Segunda Guerra Mundial se cobró unas 400.000 vidas). Y en el futuro, cuanto más potente sea la tecnología, más fácil será diseñar patógenos más dañinos.

3. Superinteligencia

La inteligencia es muy poderosa. Un minúsculo aumento en la capacidad de resolver problemas y la coordinación en grupo nos bastó para dejar al resto de simios en la estacada. Ahora su supervivencia depende de las decisiones humanas, no de sus actos. La inteligencia es una auténtica ventaja para personas y organizaciones, por lo que se invierte un esfuerzo enorme en idear formas de mejorar nuestra inteligencia individual y colectiva: desde los fármacos que potencian el conocimiento hasta los programas de inteligencia artificial.

No hay motivos para pensar que la inteligencia por sí misma haga que algo se comporte con bondad y ética. De hecho, se puede demostrar que determinados tipos de sistemas superinteligentes no obedecerían las leyes éticas aun cuando fuesen correctas.

Lo que resulta más preocupante todavía es que al intentar explicar algo a una inteligencia artificial tropezamos con profundos problemas prácticos y filosóficos. Los valores humanos son elementos difusos y complejos, que no se nos da bien expresar; además, aunque seamos capaces de hacerlo, puede que no entendamos todas sus consecuencias.

La inteligencia informática podría pasar rapidísimamente de estar por debajo de la humana a tener un poder terrorífico. Se ha insinuado que podría producirse una “explosión de la inteligencia” cuando los programas se vuelvan lo bastante sofisticados como para diseñar mejores programas. Si se produjera un salto semejante, habría una gran diferencia de poder potencial entre el sistema inteligente (o las personas que le dicen cómo actuar) y el resto del mundo. Está claro el potencial para el desastre si los objetivos establecidos no son los idóneos.

Hay motivos de sobra para pensar que algunos tipos de tecnología podrían hacer que las cosas se acelerasen a una velocidad mayor de la que la sociedad actual es capaz de asimilar. Es más, tampoco tenemos claro lo peligrosos que podrían ser los diferentes tipos de superinteligencia, o qué estrategias de mitigación funcionarían. Resulta muy difícil teorizar sobre una tecnología futura de la que aún no disponemos, o sobre una inteligencia mayor que la nuestra. De los riesgos de esta lista, este es el que más probabilidades tiene de ser, o bien catastrófico, o bien un mero espejismo.

Sorprendentemente, este es un ámbito muy poco investigado. Ya en las décadas de 1950 y 1960, cuando la gente estaba convencida de que la superinteligencia podía alcanzarse “en una generación”, no se prestaba demasiada atención a las cuestiones de seguridad.

4. Nanotecnología

La nanotecnología es el control de la materia con una precisión atómica o molecular. Eso no es peligroso de por sí; de hecho, sería una fantástica noticia para la mayoría de sus aplicaciones. Pero el aumento del poder también aumenta el potencial de abusos contra los que resultaría difícil defenderse.

El mayor problema no es la célebre “plaga gris” de nanomáquinas que se autorreplicasen hasta devorarlo todo. Para eso haría falta un diseño inteligente ex profeso. Resulta difícil hacer que una máquina se replique; a la biología se le da mucho mejor, lo hace por naturaleza. El riesgo más evidente es que la fabricación con un nivel atómico de precisión parece venir como anillo al dedo para la producción rápida y barata de cosas como armas. En un mundo donde cualquier gobierno pudiese “imprimir” una gran cantidad de armas autónomas o semiautónomas (incluidas las instalaciones para crear aún más), las carreras armamentísticas adquirirían más velocidad de la cuenta, y por ende se volverían inestables.

Las armas también pueden ser elementos minúsculos y certeros: un “veneno inteligente” que actúa como un gas nervioso pero que busca a sus víctimas, o un sistema de vigilancia ubicuo a través de “robots mosquito”, parecen perfectamente plausibles. Asimismo, podría llegarse a una situación en que la proliferación nuclear o la ingeniería climática estuviesen al alcance de cualquiera.

No podemos juzgar las probabilidades de un riesgo existencial en la nanotecnología del futuro, pero podría resultar posiblemente perturbadora por el mero hecho de ser capaz de darnos todo lo que deseemos.

5. Riesgos desconocidos que aún no conocemos

La posibilidad más inquietante es que exista algo tremendamente mortífero de lo que no tenemos ni idea. Fíjense en que el desconocer algo no es óbice para que no podamos razonar sobre ello. En un artículo extraordinario, Max Tegmark y Nick Bostrom demuestran que existe una serie de riesgos, con menos de una posibilidad entre 1.000 millones al año, basada en la edad relativa de la Tierra.

Uno podría preguntarse por qué el cambio climático o los impactos de meteorito se han quedado fuera de esta lista. Es poco probable que el cambio climático, por aterrador que sea, haga inhabitable todo el planeta (aunque podría conllevar otras amenazas si nuestras defensas ante él se desmoronan). Sin duda los meteoritos podrían borrarnos del mapa, pero ya sería mala suerte. Una especie de mamífero media sobrevive aproximadamente un millón de años. Así pues, la tasa de extinción natural ronda el uno entre un millón al año. Una cifra mucho más baja que el riesgo de guerra nuclear, que, pasados 70 años, sigue siendo la mayor amenaza para nuestra existencia.

Anders Sandberg es investigador asociado con la beca James Martin de la Universidad de Oxford y trabaja para el Instituto para el Futuro de la Humanidad.

Versión ampliada por el autor de un artículo originalmente publicado en The conversation.

Traducción de News Clips.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_