miércoles, 24 de agosto de 2022

Una inteligencia sin semántica


A vueltas con la IA cuando parece humana, una charla con el físico cuántico Alexei Grinbaum.

Aquí en V.O. en Le Monde de hoy.

Y aquí debajo una tradu exprés:

La inteligencia artificial desplaza la frontera entre lo humano y lo no humano

Alexei Grinbaum, físico cuántico y filósofo, comenta el caso de un ingeniero que fue despedido por Google por haber mencionado públicamente su preocupación durante un intercambio con una inteligencia artificial.


Entrevista realizada por Laure Belot y David Larousserie

Alexei Grinbaum es físico y filósofo en la Comisión Francesa de Energía Atómica y Energías Renovables (CEA). Es miembro del Comité Nacional de Ética Digital de Francia y advierte sobre el fascinante y preocupante progreso de la generación automática de lenguaje. En particular, habla para Le Monde sobre las declaraciones de un empleado de Google, Blake Lemoine, en el Washington Post el 11 de junio. Tras conversar con el último algoritmo de procesamiento del lenguaje natural de la empresa, LaMDA, este ingeniero explicó que creía estar hablando con una inteligencia humana a la que atribuía la sensibilidad de un niño de 7 u 8 años. La revelación de los detalles de las conversaciones puso de manifiesto los considerables avances de Google en materia de lenguaje y reavivó los debates sobre las capacidades de las máquinas. Blake Lemoine fue despedido el 22 de julio por lo que, según la empresa, fue un incumplimiento de su política de seguridad.


-¿Qué le parece este caso de conversación realista con una inteligencia artificial?

Desde 1965, con el primer chatbot [bot conversacional], Eliza, se sabe que las máquinas que hablan pueden tener efectos psicológicos en los usuarios. Eliza era un sistema determinista y bastante trivial cuya estrategia consistía en convertir las afirmaciones en preguntas para relanzar la conversación. Con los sistemas actuales de inteligencia artificial (IA), la estrategia es diferente, pero Blake Lemoine también ha padecido sus efectos: vive la ilusión de que esta máquina tiene emociones, estados de ánimo... Y saber que es una máquina no le impide, con todo, proyectar cualidades humanas sobre LaMDA. Proyecta sentimientos, como a veces hacemos con nuestro querido coche o nuestro travieso smartphone...

-Pero la ilusión es casi perfecta, ¿no?

La particularidad estriba en que esta ilusión proviene del lenguaje, sin necesidad de recurrir a una bonita figura humanoide, como la robot Sophia. LaMDA escribe texto, y eso es suficiente para la proyección de los rasgos humanos. Hay que recordar que en la Edad Media se podía nombrar a un "monstruo" si cumplía uno de estos tres criterios: paternidad humana, rostro humano o que estuviese dotado de habla. En cuanto una entidad extraña habla en nuestro lenguaje, se establece automáticamente una relación con el interlocutor humano. En los mitos, los agentes no humanos que nos hablaban eran dioses, demonios o ángeles. Ahora interactuamos con unas auténticas hazañas técnicas, con máquinas que hablan.

-¿Se ha superado el test de Turing, que distingue lo artificial de lo humano?

De hecho, esta prueba está obsoleta, porque en su versión original ya ha sido superada por muchos sistemas. Existen otras pruebas, como la de Lovelace, propuesta a principios de la década de 2000. La noción de inteligencia marca una especie de carrera precipitada hacia el horizonte eternamente inalcanzable de una inteligencia "verdaderamente" humana. Hace diez años, la generación de textos por parte de LaMDA y similares se habría considerado un logro increíble. Turing lo habría llamado "inteligencia", pero nosotros no. Todo depende de los criterios de tiempo y vocabulario, por ejemplo. si el lapso de charla es breve, muchos sistemas pasan la prueba. Pero a lo largo de una hora de interacción, ninguna IA puede engañar perfectamente a un ser humano. Lo mismo ocurre con los temas de conversación: con un número limitado de temas, puede hacerlo. La cuestión no es de competencia, sino de imitación mutua. Aunque el usuario sepa que está hablando con una máquina, la imitará. Y adoptará algunos de sus tics, sus formas de expresarse, que no eran originalmente humanas.

-Pero ¿qué diferencia a LaMDA de otros modelos lingüísticos lanzados recientemente?

A diferencia de otros modelos (y ya hay muchos: GPT-2 y GPT-3, de la empresa OpenAI; Gopher, de DeepMind, propiedad de Google, en Londres; YAML, de la rusa Yandex; Wu Dao, de la china Baidu; Jurassic-1, de la israelí AI21 Labs...)  LaMDA demuestra cierta robustez al ofrecer siempre la misma respuesta al mismo problema.  Y sus respuestas tienen sentido. Esto es, por ejemplo, lo que se busca cuando se da un consejo jurídico o médico. Pero LaMDA se acerca a lo humano porque también crea la ilusión de tener libre albedrío. Los sistemas anteriores, por lo general, descarrilan cuando la conversación se alarga demasiado. Con algunas variables de control suplementarias, LaMDA es capaz de mantener una larga conversación sin salirse del marco, e incluso de mantener la ilusión de tener conciencia de sí misma.

-¿Qué quiere decir con esto?

En la conversación entre LaMDA y Blake Lemoine, es fascinante ver que LaMDA habla de sí misma, de sus emociones, de sus estados de ánimo de forma coherente. Mantiene esta habilidad a lo largo del tiempo. El interlocutor se convencerá poco a poco de que hay un verdadero "agente" detrás. LaMDA no saltará de un tema a otro ni dirá cosas extrañas. Esta cercanía con nosotros es inquietante. Esto explica la creencia de Lemoine de que la máquina está dotada de personalidad. Pero, de nuevo, esto es sólo el resultado de una proyección antropomórfica.

Los avances en la generación automática de lengua se han acelerado desde hace dos o tres años. Hace seis meses, nos preguntábamos si la máquina podía mantener su "yo" con la suficiente coherencia a lo largo de páginas enteras de diálogo. LaMDA responde en gran medida a esta pregunta. Estamos ante lo que el  experto en robótica japonés Masahiro Mori llama "El valle inquietante", aplicado al lenguaje: un sistema de IA que se acerca demasiado a nosotros, y nos perturba. A los humanos les gusta saber quién les habla, si una máquina u otro ser humano, y no difuminar esa distinción. La inteligencia artificial ya está desplazando la frontera entre lo humano y lo no humano.

-¿Qué consecuencias puede tener esto?

En primer lugar, gracias a los sistemas de generación de lenguaje o de imágenes (como Dall-E 2 de OpenAI), muchas profesiones se encontrarán con creaciones originales pero no humanas: los profesores y sus alumnos, los escritores, los artistas, los periodistas, etc. Hace cinco años, creía, como otros, que las profesiones creativas estaban a salvo de la automatización. Pero esto no es cierto. La IA genera lenguaje e imágenes de la forma más creativa del mundo. Excepto que lo hace de forma diferente a nosotros, inhumanamente. Y eso conlleva riesgos.

-¿Cuáles son?

El lenguaje que genera no tiene, para la máquina, ningún valor de verdad, ni lógica de razonamiento. LaMDA no tiene semántica, mientras que los humanos dan significado a las palabras. Si la máquina dice "ve y mátate", el ser humano puede pensar que la máquina se lo está sugiriendo, mientras que para la máquina es sólo un cálculo numérico sin ningún significado.

Sin llegar a estos extremos, son posibles otras manipulaciones. Si quiere convencer a alguien de que le compre una pizza a usted y no a su competidor, no hay nada mejor que un lenguaje que pueda despertar una emoción a su favor. Los objetivos también pueden ser los niños, los ancianos, que podrían sufrir efectos reales en su estado psicológico y cognitivo... Podría empeorar, con el desarrollo de los deadbots

-¿Qué es esto?

Este tipo de chatbots puede hablar como una persona muerta, habiendo aprendido de todos los mensajes escritos por el difunto. Dialogar con un deadbot (robot o bot muerto) no es como ver un vídeo o una fotografía antigua. Un deadbot innova creando contenidos nuevos, con giros originales y frases parecidas [a los del sujeto].

En cierto modo, es como hablar con las mentes que salen de la máquina. Y cambia el estatuto de la muerte. Un joven canadiense, Joshua Barber, mantuvo una conversación con una máquina que imitaba a su amiga muerta en 2021, utilizando la GPT-3. Esto parece haber tenido un efecto terapéutico beneficioso, pero hay que tener en cuenta que OpenAI ha suspendido esta utilización.

-¿Pueden las empresas controlar estos usos?

Todas son conscientes de que los derrapajes pueden dañar su reputación. En sus artículos científicos sobre el procesamiento del lenguaje, hay párrafos obligatorios sobre cuestiones éticas. OpenAI, Google, etc. se preocupan por lo que llaman la "alineamiento" de los sistemas de inteligencia artificial con los valores de la sociedad. Por ejemplo, hay que evitar los prejuicios discriminatorios basados en el género, el color de la piel, etc. En la práctica, algunas empresas están retrasando el lanzamiento de sus modelos de lenguaje, siguiendo el ejemplo de OpenAI en 2019 con GPT-2. Actualmente, LaMDA no es de acceso abierto. Para los textos largos, propongo mantener la frontera entre el lenguaje humano y el de las máquinas "etiquetando" digitalmente las producciones de las máquinas para distinguirlas de las humanas.

-¿Y las autoridades públicas?

Una cosa es cierta: la actual regulación por el Reglamento General de Protección de Datos [GDPR] es insuficiente. El ejemplo de Lemoine muestra que, incluso estando informado de la calidad no humana de LaMDA, experimentó importantes efectos psíquicos. El paradigma del consentimiento libre e informado, que se basa en la idea de que el ciudadano informado es autónomo en sus decisiones, no es suficiente para evitar la manipulación.

Además, en el caso de los deadbots, el concepto de datos personales no se aplica después de la muerte. Por ello, el Comité Piloto Nacional de Ética Digital [de Francia] ya se pronunció, en noviembre de 2021 a favor de una normativa más precisa. Su opinión muestra por qué los chatbots deben ser clasificados como sistemas de IA de alto riesgo en la futura directiva europea.

A nivel europeo, la reflexión sobre los modelos de lengua no ha hecho más que empezar. El proyecto de investigación TechEthos, que reúne a varios países y al que contribuye la CEA, hará una serie de recomendaciones a principios de 2023, tras haber analizado en un informe en junio los problemas éticos que plantean cinco tecnologías, entre ellas el procesamiento del lenguaje y la realidad virtual.

-¿Hemos tomado la medida de estas transformaciones?

Todavía no con respecto al lenguaje. Y eso es preocupante. Ya no es necesario consultar el oráculo de Delfos ni llamar a un mago. Generar un lenguaje no humano se ha convertido en algo sencillo y accesible para todos. Sin embargo, la lengua es un elemento constitutivo de la identidad humana y de la vida en sociedad. Estamos en proceso de modificar tanto la condición humana como la sociedad.

Laure Belot y David Larousserie

----