"¿Qué hacen realmente las máquinas que piensan? Analizar
datos, comprender sentimientos, producir nuevas máquinas o tomar
decisiones sin la intervención humana. A fin de reflexionar sobre las
máquinas que piensan, deberíamos poder partir de la experiencia. He aquí
un ejemplo.
El lunes 17 de octubre de 1987, se produjo una ola de ventas en el
mercado de valores, con origen en Hong-Kong, que cruzó Europa y alcanzó
Nueva York, haciendo que el Dow Jones cayera un 22%. El Lunes Negro fue
una de las mayores crisis en la historia de los mercados financieros, y
tenía una particularidad.
Por primera vez, según la mayoría de los
expertos, hubo que culpar a los ordenadores de la crisis financiera: los
algoritmos decidían cuándo y cuánto comprar y vender en el mercado de
valores. Se supone que las computadoras ayudaban a los comerciantes a
minimizar los riesgos, pero lo cierto es que todas se movían en la misma
dirección, aumentando los riesgos. Se discutió mucho sobre poner fin al
comercio automatizado, pero no se hizo.
Al contrario: tras la crisis de las puntocom de marzo de 2000, se han
utilizado cada vez más las máquinas para tomar decisiones complejas en
el mercado financiero. Las máquinas calculan ahora todos los tipos de
correlaciones entre cantidades increíbles de datos: analizan las
emociones que expresa la gente en internet a través de la comprensión
del significado de sus palabras, detectan pautas y predicen conductas,
pueden elegir transacciones de manera autónoma y crean nuevas máquinas
-el software llamado derivado- que ningún ser humano razonable podría
entender.
Una inteligencia artificial coordina todos los esfuerzos de una
especie de inteligencia colectiva, operando miles de veces más rápido
que el cerebro humano, con muchas consecuencias para la vida humana. Los
primeros indicios de la última crisis se produjeron en América en
agosto de 2007, y ha tenido unas consecuencias terribles afectando a las
vidas de la gente en Europa y otras partes.
Fueron personas reales las
que sufrieron enormemente por esas decisiones. Andrew Ross Sorkin
demuestra en su libro Too Big to Fail cómo ni siquiera los
banqueros más poderosos tuvieron algún poder en medio de la crisis.
Ningún cerebro humano pareció ser capaz de controlar y cambiar el curso
de los acontecimientos para evitar la crisis que se iba a producir.
¿Podemos utilizar este ejemplo para aprender a pensar sobre las máquinas que piensan?
Estas máquinas son en realidad muy autónomas a la hora de comprender
su contexto y tomar decisiones. Y controlan vastas dimensiones de la
vida humana. ¿Es esto el principio de una era posthumana?
No: estas
máquinas son muy humanas. Están hechas por diseñadores, programadores y
matemáticos, y algunos economistas y gestores. ¿Pero son solo otra
herramienta para que los humanos la utilicen, para bien o para mal? No:
en realidad esas personas tienen pocas opciones; hacen esas máquinas sin
pensar en las consecuencias, solo están sirviendo a una narrativa. Esas
máquinas están moldeadas en realidad por un relato que cuestionan muy
pocas personas.
Según ese relato, el mercado es la mejor manera de asignar recursos,
ninguna decisión política podría mejorar la situación y se puede
controlar el riesgo mientras los beneficios crezcan sin límites y se
debería dejar que los bancos hicieran lo que quisiesen. Solo hay un
objetivo y una medida del éxito: beneficios.
Las máquinas no inventaron las crisis financieras, como nos recuerda
la crisis bursátil de 1929. Sin máquinas, nadie podría abordar la
complejidad de los mercados financieros modernos. Las mejores
inteligencias artificiales son aquellas que se hacen gracias a las
mayores inversiones de las mejores cabezas. No las controla una sola
persona, no están diseñadas por una sola persona responsable: están
moldeadas por el relato y lo hacen más efectivo. Y este relato concreto
es muy cerrado.
Si solo cuentan los beneficios, entonces no cuentan las
externalidades: las externalidades culturales, sociales y ambientales no
son el problema de las instituciones financieras. Las inteligencias
artificiales que son moldeadas por este relato crearán un contexto en el
que las personas ya no se sentirán responsables.
Un riesgo que está
surgiendo es que ese tipo de máquinas sean tan poderosas y encajen tan
bien en el relato que reduzcan la probabilidad de cuestionar la
perspectiva general, que nos haga menos propensos a mirar las cosas
desde un ángulo distinto... Es decir, hasta la próxima crisis.
Este tipo de relato se aplicará fácilmente a otras materias. La
medicina, el comercio electrónico, la política, la publicidad, la
seguridad nacional e internacional, e incluso salir con alguien y
compartir cosas son territorios en los que está empezando a funcionar el
mismo género de inteligencia artificial: son moldeados según una
narrativa en general muy focalizada, tienden a reducir la
responsabilidad humana y a soslayar las externalidades. Refuerzan el
relato predominante.
¿Qué hará la inteligencia artificial médica? ¿Se
determinará por un relato que quiere salvar vidas, o que quiere ahorrar
dinero?
¿Qué aprendemos de ello? Que la inteligencia artificial es humana y
no posthumana, y que los humanos pueden arruinarse a sí mismos y a su
planeta de muchas maneras, y la inteligencia artificial no es la más
perversa.
Las máquinas que piensan son moldeadas al modo de pensar de los
humanos, y por algo en que los humanos no piensan muchas veces a fondo:
todos los relatos iluminan algo y olvidan otras cosas. Las máquinas
reaccionan y encuentran respuestas en un contexto, reforzando el marco.
Pero hacer las preguntas fundamentales sigue siendo una función humana. Y
los humanos nunca dejan de hacer preguntas. Incluso aunque esas
preguntas no sean coherentes con el relato predominante.
Las máquinas que piensan son probablemente indispensables en un mundo
cada vez más complejo. Pero siempre habrá una pluralidad de relatos
para moldearlas. Como en los ecosistemas naturales, donde una
monocultura es una solución frágil pero eficiente, también en los
ecosistemas culturales una sola línea de pensamiento generará relaciones
frágiles pero eficientes entre los humanos y su entorno, al margen de
las inteligencias artificiales que puedan construir.
La diversidad en
los ecosistemas y la pluralidad en las dimensiones de la historia humana
son las fuentes de esos problemas y preguntas diferentes que generan
resultados más valiosos.
Pensar sobre las máquinas que piensan significa pensar en los relatos
que los moldean: y si los nuevos relatos que están surgiendo van a
provenir de un enfoque abierto y ecológico, podrán crecer en una red
neutral, y moldearán también a la siguiente generación de inteligencias
artificiales de manera plural y diversa, ayudando a los humanos a
comprender las externalidades. La inteligencia artificial no va a
desafiar a los humanos como especie: desafiará a sus civilizaciones." (Luca de Biase , Edge.org, en Arcadi Espada, El Mundo, 28/10/15; Traducción: Verónica Puertollano)
No hay comentarios:
Publicar un comentario