30/3/23

Žižek : Idiotez artificial... El peligro real no es que la gente confunda un chatbot con una persona real, sino que la comunicación con chatbots haga que las personas reales hablen como chatbots, omitiendo todos los matices e ironías, diciendo obsesivamente sólo lo que uno cree que quiere decir

  "El problema con los nuevos chatbots no es sólo que a menudo son estúpidos e ingenuos; es que no son lo suficientemente "estúpidos" o "ingenuos" como para captar los matices, las ironías y las contradicciones reveladoras que constituyen la cultura y la comunicación humanas. Peor aún, al confiar en ellos, corremos el riesgo de sucumbir a la misma obtusidad.

No hay nada nuevo en los "chatbots", capaces de mantener una conversación en lenguaje natural, comprender la intención básica de un usuario y ofrecer respuestas basadas en reglas y datos preestablecidos. Pero en los últimos meses la capacidad de estos chatbots ha aumentado de forma espectacular, lo que ha provocado lamentos y pánico en muchos círculos.

Se ha hablado mucho de que los chatbots auguran el fin de la redacción tradicional de los estudiantes. Pero una cuestión que merece más atención es cómo deben responder los chatbots cuando los interlocutores humanos hacen comentarios agresivos, sexistas o racistas que incitan al bot a presentar a cambio sus propias fantasías malhabladas.

 ¿Deberían programarse las IA para responder al mismo nivel que las preguntas que se plantean? Si decidimos que es necesario algún tipo de regulación, debemos determinar hasta dónde debe llegar la censura. ¿Se prohibirán las posturas políticas que algunos consideran "ofensivas"? ¿Qué pasa con las expresiones de solidaridad con los palestinos de Cisjordania, o la afirmación de que Israel es un Estado de apartheid (que el ex presidente estadounidense Jimmy Carter puso una vez en el título de un libro)? ¿Serán bloqueadas por "antisemitas"? El problema no acaba ahí. 

Como advierte el artista y escritor James Bridle, las nuevas IA "se basan en la apropiación al por mayor de la cultura existente", y la creencia de que son "realmente conocedoras o significativas es activamente peligrosa". De ahí que también debamos desconfiar de los nuevos generadores de imágenes de IA. En su intento de comprender y reproducir toda la cultura visual humana", observa Bridle, "parecen haber recreado también nuestros miedos más oscuros". Tal vez esto sea sólo una señal de que estos sistemas son muy buenos imitando la conciencia humana, hasta el horror que acecha en las profundidades de la existencia: nuestros miedos a la suciedad, la muerte y la corrupción."

Pero, ¿hasta qué punto son capaces las nuevas IA de aproximarse a la conciencia humana? Pensemos en el bar que hace poco anunciaba una oferta especial de bebidas con los siguientes términos: "Compre una cerveza por el precio de dos y reciba una segunda gratis". Para cualquier humano, esto es obviamente una broma. El clásico especial "compre una y llévese otra" se reformula para anularse a sí mismo. Es una expresión de cinismo que se apreciará como honestidad cómica, todo para impulsar las ventas. ¿Podría un chatbot captar algo de esto? "Joder" presenta un problema similar. Aunque designa algo que a la mayoría de la gente le gusta hacer (copular), también adquiere a menudo una valencia negativa ("¡Estamos jodidos!" "¡Vete a tomar por culo!"). El lenguaje y la realidad son confusos. ¿Está preparada la IA para discernir esas diferencias?

En su ensayo de 1805 "Sobre la formación gradual de los pensamientos en el proceso del habla" (publicado por primera vez póstumamente en 1878), el poeta alemán Heinrich von Kleist invierte la sabiduría común de que uno no debe abrir la boca para hablar a menos que tenga una idea clara de lo que va a decir: "Si, por tanto, un pensamiento se expresa de forma confusa, de ello no se sigue en absoluto que este pensamiento haya sido concebido de forma confusa. Al contrario, es muy posible que las ideas que se expresan de forma más confusa sean las que se pensaron con mayor claridad". La relación entre lenguaje y pensamiento es extraordinariamente complicada. 

En un pasaje de uno de los discursos de Stalin de principios de la década de 1930, propone medidas radicales para "detectar y combatir sin piedad incluso a aquellos que se oponen a la colectivización sólo en sus pensamientos -sí, quiero decir esto, debemos combatir incluso los pensamientos de la gente". Cabe suponer que este pasaje no fue preparado con antelación. Tras dejarse llevar por el momento, Stalin se dio cuenta inmediatamente de lo que acababa de decir. Pero en lugar de dar marcha atrás, decidió seguir con su hipérbole.

En palabras de Jacques Lacan, se trata de una verdad que surge por sorpresa en el acto de la enunciación. Louis Althusser identificó un fenómeno similar en la interacción entre prise y sorpresa. Alguien que de repente capta ("prise") una idea se sorprenderá de lo que ha conseguido. Una vez más, ¿puede un chatbot hacer esto? El problema no es que los chatbots sean estúpidos, sino que no son lo suficientemente "estúpidos". No es que sean ingenuos (les falta ironía y reflexividad); es que no son lo bastante ingenuos (les falta cuando la ingenuidad enmascara perspicacia). El peligro real, por tanto, no es que la gente confunda un chatbot con una persona real, sino que la comunicación con chatbots haga que las personas reales hablen como chatbots, omitiendo todos los matices e ironías, diciendo obsesivamente sólo lo que uno cree que quiere decir. 

Cuando era más joven, un amigo acudió a un psicoanalista para recibir tratamiento tras una experiencia traumática. La idea que este amigo tenía de lo que esos analistas esperan de sus pacientes era un cliché, así que se pasó la primera sesión soltando falsas "asociaciones libres" sobre cómo odiaba a su padre y lo quería muerto. La reacción del analista fue ingeniosa: adoptó una postura ingenua "prefreudiana" y reprochó a mi amigo que no respetara a su padre ("¿Cómo puedes hablar así de la persona que te ha hecho ser lo que eres?"). Esta fingida ingenuidad enviaba un mensaje claro: No me creo tus falsas "asociaciones". ¿Sería capaz un chatbot de captar este subtexto?

Lo más probable es que no, porque es como la interpretación que hace Rowan Williams del príncipe Myshkin en El idiota de Dostoievski. Según la lectura estándar, Myshkin, "el idiota", es un hombre santo, "positivamente bueno y bello" que se ve abocado a una locura aislada por las duras brutalidades y pasiones del mundo real. Pero en la relectura radical de Williams, Myshkin representa el ojo de una tormenta: por bueno y santo que sea, es él quien desencadena los estragos y la muerte que presencia, debido a su papel en la compleja red de relaciones que le rodea. 

No es sólo que Myshkin sea un ingenuo simplón. Es que su particular tipo de obtusidad le hace inconsciente de sus desastrosos efectos sobre los demás. Es una persona plana que habla literalmente como un chatbot. Su "bondad" reside en el hecho de que, como un chatbot, reacciona a los desafíos sin ironía, ofreciendo perogrulladas desprovistas de toda reflexividad, tomándose todo al pie de la letra y confiando en un autocompletado mental más que en una auténtica formación de ideas. Por esta razón, los nuevos chatbots se llevarán muy bien con ideólogos de todo tipo, desde los "despiertos" de hoy hasta los nacionalistas "MAGA" que prefieren permanecer dormidos."             

( Traducción realizada con la versión gratuita del traductor www.DeepL.com/Translator

No hay comentarios: