"¿Cuál es la mejor manera de desarrollar la inteligencia artificial? Esta pregunta, durante mucho tiempo teórica, se está convirtiendo rápidamente en una preocupación práctica, que pronto exigirá que se tomen importantes decisiones estratégicas. Estamos viendo cómo se desarrollan ante nuestros ojos dos enfoques completamente diferentes.
Uno es la carrera entre gigantes tecnológicos mundiales que comenzó con el reciente lanzamiento del ChatGPT, financiado por Microsoft, y que ya ha provocado promesas de sistemas similares por parte de Google y la empresa china Baidu. En estos casos, el mercado (o, más bien, el afán de lucro) es el mecanismo que impulsa a las empresas a tomar decisiones que probablemente deberían -y quizá preferirían- posponer.
El otro es el proceso de la Unión Europea para regular la inteligencia artificial, especialmente a través del amplio paquete legislativo de la Ley de IA y las normas relacionadas. Esto clasificará los sistemas según cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo/cero. Aquí, el modus operandi es democrático y político, expresado a través de la legislación y otras formas de regulación.
Hasta ahora, el mercado ha sido dominante, aunque a menudo apoyado por préstamos gubernamentales e inversiones públicas en investigación y espíritu empresarial. Esto se debe en parte al rápido ritmo del cambio tecnológico, que dificulta a las instituciones democráticas y a los Estados-nación seguir el ritmo. Tanto jurídica como técnicamente, la regulación de la IA ha resultado extremadamente difícil.
ChatGPT ilustra algunas de las dificultades y riesgos. El sistema es accesible en todo el mundo y probablemente se difundirá rápidamente cuando Microsoft lo incorpore a sus numerosos productos y permita a otras empresas hacer lo mismo. Es probable que los sistemas de IA de Google y Baidu tengan efectos de difusión similares.
No está claro cómo regular eficazmente esta tecnología intrínsecamente global y amorfa, y la influencia de cada país puede ser muy limitada. Por esta razón, se están llevando a cabo esfuerzos internacionales. La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura lanzó el primer acuerdo mundial sobre la ética de la IA en 2021 y ahora hay procesos en todo el mundo -incluso en Estados Unidos- para regular la IA de diversas maneras.
La iniciativa de la UE de crear legislación y normas para garantizar una IA ética y sostenible ha sido un catalizador. No hay que subestimar la influencia de la Unión: un mercado de 500 millones de personas con ingresos elevados a escala mundial no es insignificante. La esperanza es que una normativa de la UE que se desarrolle rápidamente pueda tener un efecto normalizador en el mercado mundial, aunque se trata de una perspectiva muy incierta.
Un obstáculo tiene que ver con la participación de Baidu en la carrera: los gobiernos autoritarios pretenden utilizar la tecnología de IA para la vigilancia y la represión, y no es muy plausible que tales Estados cumplan voluntariamente la normativa de la UE. En el caso de China ni siquiera es necesario, ya que el mercado nacional es lo suficientemente grande como para que la tecnología de IA se desarrolle rápidamente y según reglas y normas completamente diferentes a las de EE.UU. o Europa.
Difusión explosiva
A los dos meses de su lanzamiento, ChatGPT había acumulado 100 millones de usuarios. Las fuerzas del mercado pueden provocar la propagación explosiva de tecnologías de IA que las empresas que las desarrollan no comprenden del todo y que se resisten a explicar a extraños. Varios usuarios han conseguido "engañar" a ChatGPT para que dé respuestas de las que se supone que no es capaz: proporcionar recetas de drogas o explosivos y expresar opiniones racistas.
¿Por qué ChatGPT muestra este comportamiento inesperado y contradictorio? Nadie lo sabe realmente y la empresa que está detrás de esta tecnología, OpenAI, no es muy abierta en lo que a información se refiere. Así que le pregunté a ChatGPT. Me respondió crípticamente: "Como modelo de IA entrenado por OpenAI, estoy en constante desarrollo y mejora".
Parece muy difícil, incluso para los creadores del sistema, regular su uso y funcionalidad. Aún más cautela debería guiar el uso y la difusión de sistemas más complejos con consecuencias aún más graves que no podemos predecir ni evitar. Los riesgos de dejar que el mercado difunda la tecnología de IA y desencadene una carrera armamentística entre competidores deberían ser evidentes.
Daños potenciales
Muchos estudiosos han señalado los peligros sociales del desarrollo rápido e incontrolado de la IA. Daron Acemoglu, catedrático de Economía del Instituto Tecnológico de Massachusetts, ha advertido de que el rápido cambio tecnológico debe ir acompañado de reformas del bienestar y del mercado laboral para evitar la creciente desigualdad, la erosión de la democracia y el aumento de la polarización. Dani Rodrik, economista de Harvard, ha propuesto un enfoque similar: "Las políticas gubernamentales pueden ayudar a guiar la automatización y las tecnologías de inteligencia artificial por una senda más favorable al trabajo que complemente las capacidades de los trabajadores en lugar de sustituirlas".
El matemático sueco Olle Häggström, experto en los riesgos existenciales de la IA, lleva mucho tiempo advirtiendo de los posibles perjuicios, desde la vigilancia y el desempleo hasta los sistemas de armamento autónomos y un futuro en el que las máquinas simplemente se apoderen del mundo. Le preocupa el lanzamiento de ChatGPT. Lo ve como un indicio de lo difícil que será el llamado problema de alineación de la IA -diseñar en un sistema de IA todas las barandillas para evitar que se desvíe del camino- para sistemas más capaces y, en consecuencia, más peligrosos.
Hay razones para detener o restringir severamente ciertos tipos de sistemas hasta que los comprendamos mejor. Esto requeriría un amplio debate, educación y comunicación, fundamentados democráticamente. De lo contrario, es probable que se produzcan reacciones negativas por parte de los ciudadanos privados de estas tecnologías (especialmente si personas de otros países pueden utilizarlas). Esto ya ha sucedido con el Reglamento General de Protección de Datos (RGPD): aunque tiene muchos aspectos positivos, es ampliamente rechazado y ridiculizado, ya que la UE ha conseguido presentarse como un coloso burocrático empeñado en dificultar el uso de internet a la gente corriente.
Más y mejor
Algunos ven la regulación de la IA como un obstáculo a la innovación y advierten de que el enfoque europeo podría reducir a la UE a un remanso de IA. Mientras tanto, Estados Unidos y China irían por delante, menos preocupados por la legislación, las normas industriales y las directrices éticas.
Por supuesto, la regulación no es perfecta y los Estados no siempre son benévolos ni sabios. Está claro que necesitamos una combinación de mercado y regulación. Pero dados los riesgos potenciales y el rápido ritmo de desarrollo y difusión de la tecnología, hemos tenido demasiado de lo primero y muy poco de lo segundo.
Los mercados no contrarrestan suficientemente las "externalidades negativas" (efectos secundarios indeseables). No distribuyen el valor económico creado por la tecnología de forma sostenible y equitativa. No incorporan consideraciones sociales o políticas. Y rara vez contribuyen a soluciones tecnológicas que beneficien a la sociedad en su conjunto." (
No hay comentarios:
Publicar un comentario