20/12/21

La cooperación a la carta es el camino a seguir para la regulación de la Inteligencia Artificial en la UE... Las preocupaciones van desde la discriminación algorítmica y la distorsión de la democracia hasta la vigilancia omnipresente y la opresión absoluta... Un mundo saturado de máquinas capaces de predecir y explotar nuestros miedos y deseos desafía fundamentalmente la autonomía humana... en lugar de dejar que los algoritmos estén al servicio del Estado (como en China) o de las grandes empresas (como en Estados Unidos), el enfoque de Bruselas pretende ponerlos al servicio de las personas: una "IA fiable"... Ello implica restringir la libertad de los dueños de la IA, ya sean gobiernos o empresas... por contra, la Comisión de Seguridad Nacional de EE.UU. sugiere que los europeos harían bien en sentarse en el asiento del copiloto de una alianza liderada por Estados Unidos de potencias tecnológicas "amantes de la libertad" y dejar la dirección a Washington y Silicon Valley

"Las disputas sobre cómo regular la inteligencia artificial han ascendido rápidamente en la agenda mundial en los últimos años. Pero, ¿es un conjunto único de normas mundiales, o incluso sólo transatlánticas, la manera de abordar la cuestión? Daniel Mügge sostiene que para la Unión Europea, con sus enormes ambiciones éticas, la respuesta puede ser "no".

A principios de este año, la UE se convirtió en la primera gran jurisdicción en publicar un proyecto de normas para la inteligencia artificial (IA). Hay buenas razones para mantener un estrecho control legislativo sobre la tecnología de la IA. Las preocupaciones van desde la discriminación algorítmica y la distorsión de la democracia hasta la vigilancia omnipresente y la opresión absoluta.

Más allá de estas cuestiones, surgen preocupaciones más profundas. Un mundo saturado de máquinas capaces de predecir y explotar nuestros miedos y deseos desafía fundamentalmente la autonomía humana. Al mismo tiempo, la automatización impulsada por la IA tiene el potencial de privar a muchas personas de sus puestos de trabajo una vez que el auge post-pandémico alimentado por la deuda del gobierno desaparezca. La automatización ya ha abierto una brecha entre los niveles superior e inferior del mercado laboral. Con la ayuda de máquinas inteligentes, muchos trabajadores con alto nivel de formación han visto aumentar su productividad, mientras que los empleos con tareas más rutinarias, por el contrario, han desaparecido lentamente.

La Comisión Europea se enorgullece de ofrecer una tercera vía europea de regulación de la IA: en lugar de dejar que los algoritmos estén al servicio del Estado (como en China) o de las grandes empresas (como en Estados Unidos), el enfoque de Bruselas pretende ponerlos al servicio de las personas: una "IA fiable", como reza el eslogan de la UE. Ello implica restringir la libertad de los dueños de la IA, ya sean gobiernos o empresas.

Este enfoque europeo encontrará dos obstáculos fundamentales. En primer lugar, en la mayoría de los casos, el sector tecnológico de la UE ya va a la zaga de los de China y Estados Unidos. Si se cierra el grifo de las aplicaciones de IA, la brecha aumentará. Al fin y al cabo, los algoritmos prosperan al "aprender haciendo". La creación de un espacio europeo de datos y la coordinación de las inversiones iniciales por parte de los Estados miembros de la UE pretenden impulsar el sector nacional. Pero nadie sabe si eso será suficiente para que la IA europea sea algo más que un espectáculo secundario en la escena mundial.

En segundo lugar, tanto los políticos como los expertos estadounidenses consideran cada vez más que la IA es un problema de seguridad. A principios de este año, el informe final publicado por la Comisión de Seguridad Nacional de EE.UU. sobre la IA describió la IA como una carrera tecnológica entre China y Estados Unidos, en la que el perdedor sería vulnerable a la supremacía de la IA del ganador. Un mundo tecnológico que se come al perro tiene poca paciencia para los detalles de la ética de la IA. Por ello, el informe sugiere que los europeos harían bien en sentarse en el asiento del copiloto de una alianza liderada por Estados Unidos de potencias tecnológicas "amantes de la libertad" y dejar la dirección a Washington y Silicon Valley.

Estas fuerzas tiran de los Estados europeos en direcciones opuestas. Las preocupaciones éticas inspiran cautela, las preocupaciones de competitividad alientan la audacia europea, mientras que el marco de seguridad de la IA sugiere que Europa debería desempeñar un papel menor en una alianza occidental. Entonces, ¿cuál es el camino a seguir?

Cooperación a la carta

Gran parte del debate actual sobre la dinámica global de la regulación de la IA es excesivamente simplista, tratando la "regulación de la IA" como si fuera un bloque único y monolítico, que debe abordarse solo o en cooperación con uno u otro socio. En cambio, una perspectiva matizada consistiría en reconocer la enorme amplitud de usos y preocupaciones reguladoras que actualmente se agrupan bajo el título de IA.

No cabe duda de que, con la apertura de las fronteras económicas, la eficacia de las normas europeas sobre IA depende de lo que hagan otras jurisdicciones importantes: el campo de la IA está plagado de "interdependencia normativa". ¿De qué sirven las normas de la UE contra la discriminación invisible en la clasificación automatizada de currículos si los clientes pueden utilizar simplemente servicios basados en Estados Unidos? ¿De qué sirven las estrictas normas de privacidad si podemos importar sistemas de IA entrenados con datos obtenidos de forma poco ética de ciudadanos extranjeros?

Sin embargo, esta interdependencia normativa es variada: en algunos ámbitos -por ejemplo, la difusión mundial de sistemas de armas automatizados- la UE depende totalmente de la cooperación con otras grandes potencias. En otros, como las normas de seguridad para los coches que se conducen solos, puede elaborar sus propias normas y procedimientos de prueba, independientemente de lo que hagan los demás. Algunas aplicaciones, como la resiliencia de las infraestructuras impulsadas por la IA, tienen una relevancia directa para la OTAN como alianza de seguridad; otras, como las normas para los algoritmos de Twitter o la aprobación automática de préstamos, no son en absoluto relevantes para la seguridad.

Esta variada interdependencia regulatoria -alta en algunos casos, baja en otros- invita a un enfoque diferenciado de la regulación global de la IA. Cuando las normas mundiales pueden alinearse con los objetivos reguladores europeos, son claramente preferibles. Cuando ese acuerdo no está al alcance, surgen las segundas mejores opciones: soluciones mini-laterales como las normas compartidas elaboradas en el recién creado Consejo Tecnológico Transatlántico. El reconocimiento mutuo de normas diferentes pero igualmente estrictas también es una opción, al igual que el apoyo a las normas privadas de la industria tecnológica.

Pero cuando los objetivos éticos de la UE se cumplen mejor si Bruselas avanza por su cuenta -como hizo con el Reglamento General de Protección de Datos- debería tener el valor de hacerlo. No hay ninguna razón para pensar que la UE estará bien servida por un enfoque de talla única para todos los usos de la IA en la cooperación reguladora internacional. No debería ceder ciegamente a la lógica de "estás con nosotros o contra nosotros", tan habitual en el pensamiento estadounidense. Las diversas compensaciones éticas que plantea la IA pesan demasiado como para ser abordadas con un molde internacional uniforme.

Siempre atenta a qué enfoque le permite maximizar su soberanía digital en cualquier cuestión concreta, la UE debería cooperar cuando sea posible y atreverse a ir sola cuando deba hacerlo. Este enfoque a la carta de la regulación global ha servido a la UE en muchos otros campos, desde las finanzas y la seguridad alimentaria hasta los productos farmacéuticos. No hay razón para pensar que fracasaría en relación con la IA." 

(Daniel Mügge es profesor de Aritmética Política en la Universidad de Ámsterdam. LSE EUROPP, 26/11/21; Traducción realizada con la versión gratuita del traductor www.DeepL.com/Translator)

No hay comentarios: