10/7/20

"Hay una posibilidad entre seis de que nos extingamos este siglo"... nunca ha sido tan fácil como ahora... el colapso de la civilización requeriría más del 50% de mortalidad en todas las regiones del mundo

"No es un guionista de Hollywood y ni un telepredicador. Toby Ord es un filósofo de la Universidad de Oxford que asesoró a la OMS y el Banco Mundial

Por eso, en vez del fin del mundo o del apocalipsis, él habla del “colapso de la civilización”. Los matices son importantes para alguien que se dedica a analizar las diferentes formas en que podríamos extinguirnos. Y si hay más posibilidades de que un asteroide destruya la Tierra, que de que haya una explosión supervolcánica o de que otra pandemia diezme el planeta.

 En su libro ‘The Precipice’, Ord analiza al detalle cómo puede la humanidad acabar consigo misma y, lo más importante, cómo evitarlo. Su conclusión es que no es un asunto como para dejárselo a los guionistas y debería preocuparnos muy seriamente desde un punto de vista científico. “Hay una posibilidad entre seis de que nos extingamos en este mismo siglo”, afirma el investigador. 

En este cálculo, incluye también otros “riesgos existenciales”, como un colapso que destruyera el potencial de la humanidad. “Pero prefiero ser positivo”, añade en nuestra conversación por Skype. “Eso también significa que hay cinco posibilidades entre seis de que sobrevivamos como especie”. ¿Tener un 80% de posibilidades de que sobreviva la civilización es realmente una buena noticia? Más bien es una llamada de atención para tomarnos en serio los riesgos que corremos y de los que, según este filósofo, no hablamos todo lo que deberíamos.

 Ord es en el fondo optimista, porque cree que el fin del mundo puede evitarse. La mala noticia, recuerda, es que nunca ha sido tan fácil como ahora que nos extingamos. La buena, que nunca nos hemos extinguido. “Europa sobrevivió en la Edad Media perdiendo del 25 al 50% de su población en la Peste Negra, lo que podría significar que para desencadenar el colapso de la civilización requeriría más del 50% de mortalidad en todas las regiones del mundo”. 

En lo que respecta a las pandemias naturales, los humanos llevamos decenas de miles de años sobreviviéndolas, por lo que no cree que “sean una amenaza para la extinción, aunque puedan ser muy devastadoras”. Advierte también de que, “con el aumento de las comunicaciones globales y la superpoblación, las cosas pueden ponerse mucho peor en términos de pandemias que con el covid-19”. Pero más peligrosas que los virus zoonóticos como el SARS-CoV-2 le parecen las amenazas potenciales de grupos terroristas que diseñen armas biológicas, una tecnología que, a diferencia de las armas nucleares, cada vez es más accesible y difícil de rastrear.

 “La inteligencia artificial es más peligrosa que las pandemias”, argumenta Ord. Sostiene que los humanos nunca hemos tenido tanto poder para transformar el mundo ni una tecnología tan poderosa entre manos. “Igual que las armas biológicas, la inteligencia artificial puede suponer en los próximos 50 años riesgos nuevos que aún desconocemos y en cuya prevención apenas estamos invirtiendo: la humanidad gasta más cada año en helado que en que prevenir que las nuevas tecnologías no nos destruyan”. Calcula el filósofo que el gasto total en reducir los riesgos existenciales de la inteligencia artificial es de decenas de millones de dólares, en comparación con los miles de millones que se gastan en mejorar sus capacidades. En otras palabras, no estamos creando nuevos escudos a la velocidad que generamos nuevas armas.

“La inteligencia artificial tiene una posibilidad entre 10 de acabar con la humanidad”, calcula Ord. “No digo que los robots sean malos”, matiza. “La Inteligencia Artificial, igual que la energía nuclear, la podemos usar para algo bueno o para algo malo, pero el problema es que todavía no hay una conciencia pública sobre sus riesgos. Los físicos en los años cuarenta y cincuenta estaban preocupados por armas nucleares y en el siglo XX los gobiernos desarrollaron protocolos de seguridad, ahora deberíamos preocuparnos más por los riesgos de la IA y las armas biológicas”.

A cada peligro que puede poner en riesgo la humanidad le ha asignado una probabilidad matemática, aunque reconoce que son cálculos difíciles de contrastar. “He analizado muchas variables, pero es verdad que no es un cálculo fácilmente comprobable y nunca estaremos seguros de ello. Obviamente no tenemos cien planetas como este para averiguar a ciencia cierta cómo de devastadora es una amenaza. Pero hay algunas certezas”. ¿Hay algo entonces que podamos hacer? “Obviamente, sí”.

Para empezar, hablar de ello ya es un avance hacia la prevención. Tratar de medir ese riesgo cree que ayudará a tomarlo más en serio. A Ord le preocupa la poca conciencia de los riesgos devastadores que corremos y para los que habría que estarse preparando. Y, pese a que el covid-19 ha dejado claro lo vulnerables que somos a las amenazas globales, este académico de Oxford está convencido de que los gobiernos y la opinión pública seguimos sin tomarnos lo suficientemente en serio los riesgos catastróficos a los que, en mayor o menos medida, se enfrenta la humanidad. “Es complicado sacar el tema en el debate social, porque mucha gente asume que ya hay alguien haciéndose cargo de ello. Pero no es así. Algunos de los problemas más grandes a los que enfrenta la humanidad no se están afrontando. No entrar en una carrera armamentística, por ejemplo, es una cuestión política”.

Tampoco debe de ser el tema de conversación más sencillo que sacar en una cena cuando a uno le preguntan a qué se dedica. “En contextos informales, la gente se sorprende mucho cuando les hablas de la posibilidad de que la humanidad se extinga”. ¿Espera a los postres para comentarlo? “Hace falta algo más fuerte que un postre para sacar el tema”, bromea.

 Las especies de mamíferos generalmente sobreviven alrededor de un millón de años antes de extinguirse; el Homo erectus, sobrevivió durante casi dos millones. Así que según Ord, si todo fuera bien y siguiéramos los pasos de una especie normal, podríamos aspirar a sobrevivir el millón de años que viven de media los mamíferos. “Como solo tenemos unos 200.000 años de existencia, eso nos convierte en adolescentes”, dice Ord. “Pero los adolescentes no son buenos ordenando las prioridades. No ven más allá de dentro de un rato. Y en este momento la humanidad está actuando de forma tremendamente imprudente con el futuro, como un adolescente, pensando solo en nuestras próximas cinco horas de vida. Si queremos tener cientos de miles de años de futuro, tenemos que repensar las prioridades. Eso precisa cooperar mejor entre países y reconocer que tenemos un problema y necesitamos más sabiduría”.

Mucho más peligrosos que los volcanes y los meteoritos son los riesgos antropocéntricos, es decir, los que están en manos humanas. Y, en concreto, de los humanos que se dedican a la política. “En otras épocas daba igual como de malos fueran los gobernantes, no tenían el poder de destruir la humanidad. Ahora sí. Necesitamos entender este poder rápidamente para poner en marcha una red de seguridad que nos proteja contra estos riesgos”.

La pandemia del coronavirus ha alimentado un boom en Estados Unidos entre los llamados ‘preppers’, los temerosos del apocalipsis que se retiran a vivir a los bosques y guardan comida en sus cabañas o construyen búnkeres inexpugnables a una guerra química. No es acumular leña la solución que propone el filósofo, porque más que adaptarse al colapso civilizatorio él propone cómo prevenirlo. “Tampoco creo que sea bueno ridiculizar a los ‘preppers’. Por lo menos ellos son conscientes de que hay un riesgo, aunque su respuesta no creo que solucione mucho. El remedio hay que ponerlo antes de que pase, no después”.

 A diferencia de las películas de catástrofes, que suelen contar con un héroe que aprieta el botón correcto en el último momento, el mundo real difícilmente puede salvarse en solitario. “Hay que frenar el riesgo en primer lugar. Las amenazas son demasiado grandes y las soluciones individuales no van a evitar el problema, necesitamos invertir más en conocimiento para sobrevivir como especie”.

 El problema no es tanto un exceso de tecnología como una falta de sabiduría. No solo hace falta más ciencia e investigación para prevenir los riesgos asociados a los avances científicos y tecnológicos, también más política y cooperación global. Igual que estamos inventando nuevas tecnologías hay que inventar también nuevas formas de cooperar ante las amenazas globales.

 En ‘The Precipice’, Ord no resulta fatalista. No es que el destino de la humanidad sea destruirse a sí misma ni el progreso tecnológico derive necesariamente en caos. Muy al contrario, el filósofo insiste en que alejarnos del precipicio depende de las decisiones que tomemos ciudadanos y gobiernos. Además de invertir en prevención, propone una solución preliminar: “No elegir políticos que actúen como adolescentes sería un buen comienzo para garantizar el futuro de la humanidad. 

En otras épocas daba igual cómo de malos fueran los gobernantes, antes no tenían el poder de destruirlo todo. Y no podremos sobrevivir muchos siglos con el nivel de poder que estamos acumulando si no aumenta también la toma de conciencia del peligro. Estamos en un nivel insostenible de riesgo en manos de un grupo de adolescentes. Y los adolescentes no son buenos pensando en el largo plazo”.            (Marta García Aller, 26/06/20)

No hay comentarios: