"No es un guionista de Hollywood y ni un telepredicador. Toby Ord es un filósofo de la Universidad de Oxford que asesoró a la OMS y el Banco Mundial.
Por eso, en vez del fin del mundo o del apocalipsis, él habla del “colapso de la civilización”. Los matices son importantes para alguien que se dedica a analizar las diferentes formas en que podríamos extinguirnos.
Y si hay más posibilidades de que un asteroide destruya la Tierra, que
de que haya una explosión supervolcánica o de que otra pandemia diezme
el planeta.
En su libro ‘The Precipice’, Ord analiza al detalle cómo puede la
humanidad acabar consigo misma y, lo más importante, cómo evitarlo. Su
conclusión es que no es un asunto como para dejárselo a los guionistas y
debería preocuparnos muy seriamente desde un punto de vista científico.
“Hay una posibilidad entre seis de que nos extingamos en este mismo siglo”,
afirma el investigador.
En este cálculo, incluye también otros “riesgos
existenciales”, como un colapso que destruyera el potencial de la
humanidad. “Pero prefiero ser positivo”, añade en nuestra conversación
por Skype. “Eso también significa que hay cinco posibilidades entre seis
de que sobrevivamos como especie”. ¿Tener un 80% de posibilidades de
que sobreviva la civilización es realmente una buena noticia? Más bien
es una llamada de atención para tomarnos en serio los riesgos que corremos y de los que, según este filósofo, no hablamos todo lo que deberíamos.
Ord es en el fondo optimista, porque cree que el fin del mundo puede evitarse.
La mala noticia, recuerda, es que nunca ha sido tan fácil como ahora
que nos extingamos. La buena, que nunca nos hemos extinguido. “Europa
sobrevivió en la Edad Media perdiendo del 25 al 50% de su población en la Peste Negra, lo que podría significar que para desencadenar el colapso de la civilización requeriría más del 50% de mortalidad en todas las regiones del mundo”.
En lo que respecta a las pandemias naturales,
los humanos llevamos decenas de miles de años sobreviviéndolas, por lo
que no cree que “sean una amenaza para la extinción, aunque puedan ser
muy devastadoras”. Advierte también de que, “con el aumento de las
comunicaciones globales y la superpoblación, las cosas pueden ponerse
mucho peor en términos de pandemias que con el covid-19”. Pero más peligrosas que los virus zoonóticos como el SARS-CoV-2 le parecen las amenazas potenciales de grupos terroristas
que diseñen armas biológicas, una tecnología que, a diferencia de las
armas nucleares, cada vez es más accesible y difícil de rastrear.
“La inteligencia artificial es más peligrosa que las
pandemias”, argumenta Ord. Sostiene que los humanos nunca hemos tenido
tanto poder para transformar el mundo ni una tecnología tan poderosa
entre manos. “Igual que las armas biológicas, la inteligencia artificial
puede suponer en los próximos 50 años riesgos nuevos que aún desconocemos
y en cuya prevención apenas estamos invirtiendo: la humanidad gasta más
cada año en helado que en que prevenir que las nuevas tecnologías no
nos destruyan”. Calcula el filósofo que el gasto total en reducir los
riesgos existenciales de la inteligencia artificial es de decenas de
millones de dólares, en comparación con los miles de millones que se
gastan en mejorar sus capacidades. En otras palabras, no estamos creando
nuevos escudos a la velocidad que generamos nuevas armas.
“La inteligencia artificial
tiene una posibilidad entre 10 de acabar con la humanidad”, calcula
Ord. “No digo que los robots sean malos”, matiza. “La Inteligencia
Artificial, igual que la energía nuclear, la podemos usar para algo
bueno o para algo malo, pero el problema es que todavía no hay una conciencia pública sobre sus riesgos.
Los físicos en los años cuarenta y cincuenta estaban preocupados por
armas nucleares y en el siglo XX los gobiernos desarrollaron protocolos
de seguridad, ahora deberíamos preocuparnos más por los riesgos de la IA
y las armas biológicas”.
A cada peligro que puede poner en riesgo la humanidad le ha asignado una probabilidad matemática,
aunque reconoce que son cálculos difíciles de contrastar. “He analizado
muchas variables, pero es verdad que no es un cálculo fácilmente
comprobable y nunca estaremos seguros de ello. Obviamente no tenemos
cien planetas como este para averiguar a ciencia cierta cómo de
devastadora es una amenaza. Pero hay algunas certezas”. ¿Hay algo
entonces que podamos hacer? “Obviamente, sí”.
Para empezar, hablar de ello ya es un avance hacia la prevención.
Tratar de medir ese riesgo cree que ayudará a tomarlo más en serio. A
Ord le preocupa la poca conciencia de los riesgos devastadores que
corremos y para los que habría que estarse preparando. Y, pese a que el
covid-19 ha dejado claro lo vulnerables que somos a las amenazas
globales, este académico de Oxford está convencido de que los gobiernos y
la opinión pública seguimos sin tomarnos lo suficientemente en serio
los riesgos catastróficos a los que, en mayor o menos medida, se
enfrenta la humanidad. “Es complicado sacar el tema en el debate social,
porque mucha gente asume que ya hay alguien haciéndose cargo de ello.
Pero no es así. Algunos de los problemas más grandes a los que enfrenta
la humanidad no se están afrontando. No entrar en una carrera
armamentística, por ejemplo, es una cuestión política”.
Tampoco
debe de ser el tema de conversación más sencillo que sacar en una cena
cuando a uno le preguntan a qué se dedica. “En contextos informales, la
gente se sorprende mucho cuando les hablas de la posibilidad de que la
humanidad se extinga”. ¿Espera a los postres para comentarlo? “Hace
falta algo más fuerte que un postre para sacar el tema”, bromea.
Las especies de mamíferos generalmente sobreviven alrededor de un millón
de años antes de extinguirse; el Homo erectus, sobrevivió durante casi
dos millones. Así que según Ord, si todo fuera bien y siguiéramos los
pasos de una especie normal, podríamos aspirar a sobrevivir el millón de años
que viven de media los mamíferos. “Como solo tenemos unos 200.000 años
de existencia, eso nos convierte en adolescentes”, dice Ord. “Pero los
adolescentes no son buenos ordenando las prioridades. No ven más allá de
dentro de un rato. Y en este momento la humanidad está actuando de
forma tremendamente imprudente con el futuro, como un adolescente,
pensando solo en nuestras próximas cinco horas de vida. Si queremos
tener cientos de miles de años de futuro, tenemos que repensar las prioridades. Eso precisa cooperar mejor entre países y reconocer que tenemos un problema y necesitamos más sabiduría”.
Mucho más peligrosos que los volcanes y los meteoritos son los riesgos antropocéntricos,
es decir, los que están en manos humanas. Y, en concreto, de los
humanos que se dedican a la política. “En otras épocas daba igual como
de malos fueran los gobernantes, no tenían el poder de destruir la
humanidad. Ahora sí. Necesitamos entender este poder rápidamente para
poner en marcha una red de seguridad que nos proteja contra estos
riesgos”.
La pandemia del coronavirus ha alimentado un boom en Estados Unidos entre los llamados ‘preppers’,
los temerosos del apocalipsis que se retiran a vivir a los bosques y
guardan comida en sus cabañas o construyen búnkeres inexpugnables a una
guerra química. No es acumular leña la solución que propone el filósofo,
porque más que adaptarse al colapso civilizatorio él propone cómo
prevenirlo. “Tampoco creo que sea bueno ridiculizar a los ‘preppers’.
Por lo menos ellos son conscientes de que hay un riesgo, aunque su
respuesta no creo que solucione mucho. El remedio hay que ponerlo antes de que pase, no después”.
A diferencia de las películas de catástrofes, que suelen contar con un
héroe que aprieta el botón correcto en el último momento, el mundo real difícilmente puede salvarse en solitario.
“Hay que frenar el riesgo en primer lugar. Las amenazas son demasiado
grandes y las soluciones individuales no van a evitar el problema,
necesitamos invertir más en conocimiento para sobrevivir como especie”.
El problema no es tanto un exceso de tecnología como una falta de sabiduría. No solo hace falta más ciencia e investigación para prevenir los riesgos asociados a los avances científicos y tecnológicos, también más política y cooperación global. Igual que estamos inventando nuevas tecnologías hay que inventar también nuevas formas de cooperar ante las amenazas globales.
En ‘The Precipice’, Ord no resulta fatalista. No es que el destino de la
humanidad sea destruirse a sí misma ni el progreso tecnológico derive
necesariamente en caos. Muy al contrario, el filósofo insiste en que
alejarnos del precipicio depende de las decisiones que tomemos ciudadanos y gobiernos. Además de invertir en prevención, propone una solución preliminar:
“No elegir políticos que actúen como adolescentes sería un buen
comienzo para garantizar el futuro de la humanidad.
En otras épocas daba
igual cómo de malos fueran los gobernantes, antes no tenían el poder de
destruirlo todo. Y no podremos sobrevivir muchos siglos con el nivel de
poder que estamos acumulando si no aumenta también la toma de
conciencia del peligro. Estamos en un nivel insostenible de riesgo en
manos de un grupo de adolescentes. Y los adolescentes no son buenos
pensando en el largo plazo”. (Marta García Aller, 26/06/20)
No hay comentarios:
Publicar un comentario