Va al contenido

Huellas N.07, Julio/Agosto 2023

PRIMER PLANO

Insustituibles

Lluís Formiga i Fanals

ChatGPT ha revolucionado la manera de relacionarnos con la realidad pero su método de conocimiento carece de experiencia y confianza. Punt Barcelona analiza esta nueva herramienta cuyo potencial desvela la esencia de lo humano

Durante décadas, la comunidad académica ha anhelado alcanzar la utopía de la inteligencia artificial general (Artificial General Intelligence o AGI). Durante los últimos 6-7 años se ha pasado de una forma de inteligencia artificial predictiva o discriminatoria, que solo clasificaba, reconocía, diagnosticaba, predecía o proponía patrones a una inteligencia que trasciende las limitaciones de ser orientada a objetivo y/o tarea (goal-specific o task-specific) y se adentra en el mundo de la generación de supuestos razonamientos, voces, música, imágenes, poesía, ensayos y videos. Es decir, una inteligencia artificial generativa.
Sin embargo, este salto hacia la IA Generativa ha creado un “espejismo” cautivador de que ya llegábamos a la AGI, ya que las máquinas generativas han demostrado un poder impresionante. Pero debemos tener en cuenta las peculiaridades de esta tecnología, las cuales pueden llevarnos a la desinformación, el sesgo y la toxicidad entre otros. La AGI, en su potencialidad, puede ser utilizada como un oráculo de la verdad, pero también puede distorsionar y propagar información o cultura errónea o interesada. Nos enfrentamos al desafío de comprender y abordar estas implicaciones éticas y sociales.
En este contexto, la sociedad se encuentra dividida en sus reacciones ante la IA Generativa. Algunos la demonizan y la ignoran, temiendo sus efectos negativos y su potencial para perjudicar nuestra comprensión de la verdad y la moralidad. Otros la ven como una solución que nos permite evadir los esfuerzos, anestesiando nuestra conciencia y relegando el trabajo, las decisiones éticas y las responsabilidades a máquinas. Y en un punto intermedio, encontramos a aquellos que la abrazan como una herramienta útil y fascinante en nuestra vida cotidiana, reconociendo su potencial para transformar la forma en que interactuamos con el mundo.
Dentro del PuntBCN y bajo el lema “Advertid, hermano Sancho, que esta aventura no es de ínsulas sino de encrucijadas” se ha hecho un esfuerzo para comprender el cambio de paradigma que está suponiendo en nuestro día a día la aparición de una Inteligencia Artificial que nace con la pretensión de parecer humana, y que quizá pretende ser sustitutiva de lo humano.

Para encontrar encrucijadas, de cruces de caminos y de transversalidad, hemos tenido el privilegio de contar con la participación de tres grandes expertos en sus respectivos campos, quienes nos han guiado en esta travesía. Ellos son Aurora de la Iglesia, una de las locutoras profesionales más activas de España; Maite Melero, directora del grupo de traducción automática en el Barcelona Supercomputing Center – Centro Nacional de Supercomputación; y Xavier Serra Besalú, director del Instituto Salvador Espriu de Salt y filósofo especializado en nuevas tecnologías.
Aurora de la Iglesia nos ha explicado cómo las voces artificiales han provocado un descenso del trabajo de locución y un cambio de modalidad en lo que piden los clientes. Ahora se pide el matiz, aquella imperfección que nos hace humanos. Nos comenta que para la industria audiovisual ahora se generan guiones, materiales generados por inteligencia artificial y cuán difícil es comunicar emoción y poner el alma en un texto que ha generado una máquina.
ChatGPT es un producto que ha revolucionado la manera de relacionarnos con la realidad e intentamos obtener respuestas rápidas y efímeras a preguntas o necesidades de nuestro trabajo. Aunque debemos comprender que no es un oráculo sino una herramienta de consulta, de generación de un texto inicial o para obtener la traducción inicial de un texto. Pero intentemos discernir que siempre tendrá que haber un factor humano. Para ello debemos comprender su funcionamiento. Basado en tecnología de grandes modelos de lenguaje (Large Language Models o LLMs). Un modelo de lenguaje es básicamente un modelo que predice la continuación, mediante probabilidades de una secuencia de datos.
Maite Melero nos dio una clase magistral de cómo el Generative Pre-trained Transformer (GPT) es un modelo de lenguaje complejo que ha aprendido a partir de datos disponibles en internet. Su modelo matemático es un sistema neuronal: billones de neuronas, organizadas en capas e intercambiando información modelada a base de pesos, probabilidades, que se van recalculando en el proceso de entrenamiento y estos acaban produciendo una red entrenada que se convierte en el LLM, una hipermatriz que es la base para el conocimiento que queramos que genere. Sin embargo, esta hipermatriz presenta un primer inconveniente: desde el punto de vista de su aprendizaje y de la generación de nuevo conocimiento, es una caja negra con números reales, no se puede comprender ni diseccionar. Por lo tanto no razona, no memoriza, generaliza para adaptarse a nuevas situaciones no vistas con anterioridad.
A fin y efecto de generalizar, representa las palabras en unos vectores, unos conjuntos de números distribuidos en un espacio 300-dimensional. Este proceso asume una concepción utilitarista del significado basada en las definiciones de Ludwig Wittgenstein (1953) –«el significado de las palabras radica en su uso»– o John Rupert Firth (1957) –«conocerás una palabra por las que la acompañan»–. Esto permite a las máquinas relacionar palabras en conceptos como sinonimia, hiperonimia e hiponimia, lo cual facilita el procesamiento automático del lenguaje. Los vectores de palabras, también conocidos como embeddings de palabras, capturan la información semántica y sintáctica de las palabras en un espacio continuo. Pero no capturan el significado en el sentido más profundo de la palabra. No comprenden, no entienden. Posteriormente a este pre-entrenamiento se realiza un proceso de refinado (fine-tuning) de la red neuronal adaptándola a una tarea específica orientada a un objetivo, como en el caso de ChatGPT, obtener un sistema conversacional. El criterio de curación (selección, organización y mantenimiento) de los datos en sistemas como chatGPT es el criterio proporcionado por la empresa, OpenAI, a las personas que han filtrado y dado una puntuación (score) a los datos: legiones enteras de anotadores (Mechanical Turkers) cobrando dos euros la hora en países en vías de desarrollo como Kenia. No obstante, OpenAI no ha publicado los criterios de curación (selección, organización y mantenimiento) de los datos para asegurar su calidad, utilidad y accesibilidad. Esto hace que la OpenAI no sea tan abierta (open) como ellos dicen provocando desinformación, sesgo y toxicidad en los datos. No hay transparencia en cómo se han entrenado estos sistemas pero tienen sus efectos en la sociedad.
Xavier Serra nos comentaba que productos como chatGPT nos mantienen en un mundo digital que nos desconecta de la realidad. Después levantamos la mirada y nos confrontamos con baños de realidad, nos encontramos con los disturbios en Francia, donde queman la casa a un alcalde por el simple hecho de proteger un ayuntamiento. De modo añadido nos encontramos que las máquinas siempre tienen respuestas para todo, no saben decir que no saben una respuesta o que se equivocan, intentan ser perfectas, pero incapaces de tomar decisiones como en la paradoja del asno de Buridán, donde el burro muere de hambre porque no puede decidir entre dos montones de heno equidistantes. Este exceso de dependencia de la tecnología y la inteligencia artificial nos hace perder la capacidad de pensar por nosotros mismos y de enfrentar los problemas de la vida real con creatividad y juicio propio.
Además, el uso constante de productos como chatGPT nos expone a un mundo filtrado y manipulado por sesgos. Nos encontramos atrapados en burbujas de información, donde solo vemos contenido que se ajusta a nuestras preferencias y opiniones previas. Esto perpetúa la polarización y la falta de diálogo, ya que cada uno vive en su propia realidad digital. Hay que añadir un concepto fundamental que es que la máquina no tiene cuerpo, por lo tanto no tiene sentimientos, no tiene emociones en el sentido humano del término, aunque le podamos poner sensores no actúa guiado por el corazón ni por hormonas como la serotonina, endorfinas, dopaminas u oxitocina (las hormonas de la felicidad). Dentro de esto, hay que entender que en el hombre es importante el proceso y método de aprendizaje, que es progresivo; cuando somos niños tropezamos y nos equivocamos y así aprendemos y avanzamos. Tenemos conceptos como experiencia o confianza en un padre o mentor, una confianza que la máquina no tiene. Aunque algunos autores afirman que las máquinas corrigen sus errores mediante funciones matemáticas de disminución del error, no hay juicio humano en su discernimiento. Las máquinas carecen de la capacidad de comprensión que los seres humanos poseemos.

Aunque puedan realizar tareas complejas y procesar grandes cantidades de información, les falta la intuición y la empatía que son intrínsecas a nuestra naturaleza. La experiencia acumulada a lo largo de los años, la sabiduría adquirida y transmitida de generación en generación, así como el vínculo personal entre mentor y aprendiz, son elementos esenciales en el crecimiento y el desarrollo humano. La confianza que se establece en una relación paternal, una relación con un padre, va más allá de la mera transmisión de conocimientos. El niño aprende por la emoción, la máquina no. El aprendizaje implica el apoyo emocional, el estímulo y la orientación necesarios para encontrar el sentido, abrir el corazón, comprender para superar obstáculos y alcanzar metas. Un padre no solo enseña, sino que también brinda inspiración, motivación y un ejemplo a seguir. Este tipo de interacción humana enriquece nuestra experiencia y nos ayuda a crecer tanto a nivel personal como profesional. Como dice Maite Melero, «no es un humano, es una máquina, punto, axioma».
Estas emociones, estos sentimientos también nos hacen imperfectos. Como humanos aceptamos y abrazamos la imperfección y esta genera empatía. Al final lo que los humanos reconocemos es el ser genuinos, solo con experiencia podemos transmitir. Aunque el proceso de aprendizaje de estas máquinas no se entienda, aunque algunos ingenieros como Blake Lemoine, de Google, afirmen que estos sistemas son conscientes o sintientes (no hay traducción en castellano para el concepto sentient), hay que entender que las máquinas son máquinas, su alma es de metal, no tienen energía propia y dependen de una batería o fuente externa. Las máquinas imitan muy bien al humano y pueden imitar muy bien las emociones pero no son humanas.
En el camino del descubrimiento del significado último hay que destacar, como dice Noam Chomsky, siguiendo el cogito ergo sum de Descartes, que el pensamiento y la conciencia van antes del lenguaje y el razonamiento; por lo tanto, la comprensión y el significado trascienden las capacidades puramente cognitivas de las máquinas. La conciencia humana va más allá de la mera capacidad de procesamiento de información. La conciencia humana se nutre de nuestras experiencias, emociones y de nuestra conexión con el mundo que nos rodea. Está arraigada en la relación profunda y personal que tenemos con aquello que nos ha dado la existencia, con aquello que manifiesta lo más profundo de nuestro ser. Y en esto la fe, como dice el capítulo décimo de El sentido religioso, es una de las dimensiones que enriquece nuestra conciencia y amplía nuestra comprensión del significado último.
En última instancia, es importante reconocer y valorar las diferencias entre las capacidades de las máquinas y las habilidades únicas que poseemos como seres humanos. La tecnología y la inteligencia artificial pueden ser herramientas valiosas para mejorar nuestras vidas, pero no pueden reemplazar por completo la esencia misma de nuestra humanidad y esto nos puede servir de base para afrontar los miedos que la inteligencia artificial genera, que se pueden resumir en: 1) pérdida de puestos de trabajo y del sentido del trabajo; 2) ser víctimas de la manipulación, control, desinformación, sesgo y toxicidad de los intereses económicos y de poder, como la emergencia de un quinto poder; y 3) la reducción de lo humano a una máquina que responde a simples estímulos.

 
 

Créditos / © Asociación Cultural Huellas, c/ Luis de Salazar, 9, local 4. 28002 Madrid. Tel.: 915231404 / © Fraternità di Comunione e Liberazione para los textos de Luigi Giussani y Julián Carrón

Vuelve al inicio de página