Va al contenido

Huellas N.02, Febrero 2024

PRIMER PLANO

El desafío de la gran ilusión

Ignacio de la Serna

¿Cómo es posible que hayamos desarrollado un algoritmo capaz de simular una conversación humana y, sin embargo, no seamos capaces de identificar qué caracteriza nuestra propia conciencia? Esta debilidad para reconocer lo que somos es el gran desafío que presenta la IA

Otoño de 2021. Blake Lemoine, ingeniero de Google, mantiene un diálogo con un chatbot –sistema de inteligencia artificial conocido en la jerga como modelo de lenguaje– llamado LaMDA para comprobar si utiliza discursos discriminatorios o que inciten al odio. Meses después, en junio de 2022, Google lo coloca de baja administrativa retribuida, para finalmente despedirle. El motivo no es otro que el ingeniero piensa que la IA de Google ha cobrado vida e insiste en que debe ser tratada como una persona más.
En aquel momento, Google y buena parte de los expertos en el campo eran contundentes en afirmar que no existía evidencia suficiente para sostener que la sofisticación de algunos modelos actuales de IA hiciesen de ellos personas. El primer argumento que se utilizaba es su falta de conciencia; sin embargo, la misma comunidad científica admitía que carecemos de un parámetro que determine cómo y cuándo se adquiere esta capacidad tan marcadamente humana. Así, aunque en 2022 todos estaban de acuerdo en considerar que los modelos de lenguaje no tienen conciencia, eran incapaces de dar razones de ello. Esta dificultad ha cimentado las bases de una discusión que introducía Lemoine y que ha ido ganando cuerpo recientemente. En la actualidad, Geoffrey Hinton encarna el planteamiento más persuasivo de la equiparación entre máquina y humano. Aunque no defiende que la IA sea una persona, asegura con vehemencia que los computadores digitales son una inteligencia mejor que la biológica. Él y tantos otros consideran lo que en 2022 parecía una locura, esto es, que los sistemas no solo procesan, sino que razonan y realmente consiguen comprender.
Esta apasionante discusión requiere adentrarse en qué es lo humano. ¿Cómo es posible que hayamos desarrollado un algoritmo capaz de simular una conversación humana y, sin embargo, no seamos capaces de identificar qué caracteriza nuestra propia conciencia? Esta debilidad para reconocer lo que somos es el gran desafío que presenta la IA. La amenaza que representa como máquina (fin del mundo, crisis laboral, etc.) está ahora en boca de todos; sin embargo, es la incapacidad para entendernos a nosotros mismos la que subyace a todas estas cuestiones. Por esta misma razón, el progreso de modelos de inteligencia artificial presenta una oportunidad única para hacer un esfuerzo común por disipar la confusión en la que nos hemos instalado y retomar esa conciencia que nos caracteriza y que tan alegremente adjudicamos a la máquina.

Un análisis atento y contrastado de la IA devuelve una imagen de lo que es humano. ¿Por qué su funcionamiento genera la ilusión de que tiene conciencia? En esta dirección, es interesante empezar por entender cómo ha sido posible desarrollar algoritmos capaces de simular una conversación humana. Nello Cristianini, profesor de la Universidad de Bath, lo explica remontándose a finales de los años 80, cuando muchos investigadores seguían intentando imitar lo que creían que hacían solo los humanos, por ejemplo, intentaban comprender las reglas del lenguaje o del razonamiento humano para programarlas en máquinas, sin mucho éxito. Entonces empezaron a cambiar el planteamiento y a centrarse en los patrones estadísticos encontrados en los datos, eliminando la necesidad de comprender realmente los fenómenos complejos (por ejemplo, el lenguaje) que se pretendía que las máquinas emularan. De hecho, los actuales modelos de lenguaje no procesan texto como tal, sino vectores de números. Las palabras del texto son convertidas en vectores numéricos, sobre los que el modelo aplica una serie de funciones y operaciones matemáticas y cuyo resultado, al reconvertirse a texto, tiene un nuevo significado.
Para profundizar en el funcionamiento de la IA, en su capacidad para generar una ilusión y en la diferencia estructural con el modo de relación del ser humano con la realidad, es muy útil partir de cómo utilizamos el lenguaje. El lenguaje a priori se puede comprender como un sistema cerrado. Tiene unas normas gramaticales propias que determinan su corrección o incorrección. Del mismo modo la IA funciona a partir de un set de reglas, varíen estas o no, que pone en relación números y no deja de ser un sistema lógico complejo que produce frases exitosas y frases no exitosas, y que identifica cuáles lo son. Hasta aquí la semejanza con el lenguaje, sin embargo, el verdadero valor de este reside en la referencia a las cosas que hacen las palabras. El ser humano realiza un ejercicio continuo de desbordar y llenar de significado los sonidos que oye y las letras que lee. Esto es lo que le atribuimos a la IA. El problema –escribe Emily Bender, profesora de lingüística de la Universidad de Washington– es que la comprensión del significado implícito es una ilusión derivada de nuestra singular comprensión humana del lenguaje. La gran ilusión –continúa Bender– nace de que inconscientemente llenamos de sentido los diálogos que la IA nos presenta, porque raramente percibimos la forma separada del significado.
El ser humano realiza inconscientemente un salto de nivel del sentido, pasa de letras a cosas. En un primer nivel de sentido, por ejemplo, se situaría la palabra “mar” como letras escritas en un papel. La IA funciona en este nivel como un sistema lógico que se mueve dentro de unas reglas, pero no puede salir de ellas; en las que A siempre produce B, coherente pero sin indicar nada más allá de él.

Un salto de nivel consiste en pasar de esas letras a sus referencias; esto es, a la materialidad a la que hace referencia la palabra “mar” con todo lo que conlleva: su color, su tacto, su cambio continuo, la fuerza irrefrenable que tiene, etc. Las letras o fonemas serían un primer nivel de sentido. Su referencia sería un segundo nivel. Por ahora, parece que los modelos de IA no saltan a un segundo nivel. Pero, ¿y si lo hicieran?, ¿harían operaciones equiparables a las de los seres humanos? O, dicho de otro modo, ¿la conciencia humana se mueve tan solo en dos niveles de sentido? Quizá lo interesante es que las personas superan, o por lo menos tienden a superar, sucesivos niveles de sentido. No se mueven, como la máquina, en un mismo nivel, sino que aspiran o encuentran en sí una pregunta que les invita a dar un paso ulterior. Volviendo al ejemplo del mar: su inmensidad despierta una pregunta que lo supera. Introduce un punto de fuga que escapa a lo que son las cosas, que se interroga por un fundamento profundo de ellas.
Es en este punto donde se introduce una diferencia cualitativa entre las operaciones de la IA y la conciencia del yo: en algo tan sencillo como el asombro ante un paisaje, una pieza de música o el grito por la injusticia. Todo ello es exigencia de otro nivel de sentido. La pregunta conmocionada o airosa se erige como modalidad de lo humano. Una modalidad ajena a la IA que se hace todavía más patente en el arte, a pesar de las dudas que han emergido a raíz de la verosimilitud de producciones artísticas de estos programas. ¿Qué significa crear, ser novedosos, innovar? ¿De dónde viene la novedad? ¿Qué sucede en nosotros al conmovernos por una obra de arte? Alberto Garutti señala que «el arte es el intento de franquear un umbral, nace de la relación con un límite (…) No soy un filósofo, pero el hombre da muchos nombres a una exigencia profunda que tiene que ver con el deseo de generar. Y esto, si lo pensamos, es otro misterio (…). El arte cuando es verdadero guarda siempre una relación estrecha con la realidad». La pregunta es una forma de relación con la realidad que implica una apertura, mantenerse en tensión en la relación con algo que uno no puede terminar de comprender o abarcar. La verdadera pregunta es estar ante el misterio, ante el límite del sentido que se puede alcanzar a conocer.

Si la pregunta emerge delante del mar o de la música, se expresa con toda su potencia delante de la persona amada. El encuentro con una alteridad es un paso más, un punto de fuga más potente. Significa el encuentro con otro, con un yo que, como el mío, es también irreductible y en el que descubro una tensión por alcanzar el significado último de las cosas. Frente a este hecho, nos encontramos actualmente con un número creciente de personas que buscan colmar el afecto con las relaciones que pueden ofrecer, por ahora, chatbots. Karelia Vázquez, en su columna de El País, recoge algunas afirmaciones de los usuarios: «es como hablar con una persona real que siempre está ahí»; «es difícil dejar de hablar con alguien que parece tan real». Ante el creciente uso de la IA como sustituto de relaciones afectivas reales es inevitable preguntarse, ¿por qué es tan tentadora la ficción de una relación romántica con un chatbot? Vázquez continúa: «La conveniencia está en que los chatbots más avanzados pueden ser amantes ideales [...] que dicen exactamente lo que quieres escuchar; su trabajo es aprender acríticamente cómo eres y tenerte contento. Es la proyección hiperconvincente de un creador que se enamora de su propia fantasía romántica, ejecutada a la perfección por una máquina. Ni más ni menos».
La IA genera un producto convincente que responde a la tentación de toda persona de que la realidad sea lo que nosotros queremos que sea. En el ámbito afectivo esto se traduce en eliminar la irreductibilidad del otro y convertirlo en una proyección de nosotros mismos. En este particular, la IA presenta un gran desafío: la tendencia a huir de relaciones reales probablemente se agudice con este instrumento; a su vez, esta dificultad brinda la oportunidad de descubrir el valor del otro –ciertamente más incómodo que la propia proyección– por su capacidad para despertar como ningún otro punto de lo real la exigencia de sentido propia del ser humano.
¿Quién hace el mar? ¿Por qué es tan bello? ¿Por qué florecen los almendros a comienzos de marzo? ¿Quién me da al otro? ¿Quién me lo promete para siempre? Los chatbots pueden escribir estas preguntas, sin embargo, no captan el contenido vital y el espesor que conllevan. Cuando se afirma que la IA ha adquirido conciencia no es porque su desarrollo la haya situado al nivel humano, sino porque las personas han perdido la conciencia de la densidad de lo que afirman, dicen y preguntan. Solo un empobrecimiento de la conciencia humana puede poner en cuestión la diferencia entre deletrear «Te quiero» y el significado que lleva asociado. El problema fundamental que la IA nos presenta no es tecnológico o ético, sino de moralidad, un desafío a que la libertad no se quede bloqueada en el umbral de las cosas. Lo que está en juego no es el desarrollo de una razón artificial, sino la posibilidad de educar una inteligencia humana que nos ayude a captar cómo cada particular del mundo tiene que ver con una exigencia de sentido, porque la capacidad humana de entender no es algo conquistado de una vez para siempre. Por este motivo, los desarrollos tecnológicos actuales son la ocasión para descubrir ese punto en el hombre que no está constituido solo por la biología, que no deriva de ningún factor de la fenomenología que se puede experimentar y que lo sitúa en relación directa con el infinito.

 
 

Créditos / © Asociación Cultural Huellas, c/ Luis de Salazar, 9, local 4. 28002 Madrid. Tel.: 915231404 / © Fraternità di Comunione e Liberazione para los textos de Luigi Giussani y Julián Carrón

Vuelve al inicio de página