ChatGPT o el espejo del conocimiento mundano

Compañías. Dado que todo el mundo tiene acceso al sistema ChatGPT, el debate sobre los peligros de la inteligencia artificial (IA) ha llegado a la corriente principal. En muchas áreas, la IA ya ha superado las capacidades humanas. Pero lo que inquieta en ChatGPT ya no es el poder de razonamiento o de cálculo, sino su capacidad de movilizar una gran masa de textos para responder, según las reglas comunes del discurso, a todas las preguntas que se le formulan.

Los observadores, las empresas y los docentes se preocuparon entonces al ver que el sistema desarrollaba resúmenes profesionales o tareas académicas percibidas como «satisfactorias». Pero, ¿no es esta satisfacción lo que ChatGPT requiere que cuestionemos?

En sus inicios, la IA se centró en capturar conocimiento técnico y especializado. Los sistemas expertos de la década de 1980 brindan diagnósticos médicos, ayudan a los reparadores de máquinas o manejan robots. El conocimiento que captan es el de un razonamiento que moviliza los hechos y las reglas de un oficio. Este enfoque experimentó su avance más espectacular con el ajedrez o el software de juego go, que venció a los más grandes maestros.

Lea también: Artículo reservado para nuestros suscriptores «Con ChatGPT y la aparición de la inteligencia artificial, se relanza la cuestión de la escasez de trabajo y el futuro de las pensiones»

La segunda etapa de la IA adopta el enfoque opuesto. En lugar de partir del conocimiento de un experto, intentaremos producirlo entrenando un algoritmo a partir de gigantescas bases de datos. El reconocimiento facial es el más emblemático de este enfoque. La IA puede entonces aprender a imitar un estilo literario o musical y generar formas complejas a partir de millones de ejemplos.

Un retórico perfecto

O bien, los usuarios más exigentes de ChatGPT no tardaron mucho en darse cuenta de que el sistema razonó y calculó mal. Así como resulta, por ejemplo, ser un pobre jugador de ajedrez. Sin embargo, puede exponer fácilmente la teoría de la relatividad general de Einstein, dar las reglas de una sociedad civil inmobiliaria o tratar un dilema moral con equilibrio.

ChatGPT actúa por tanto como un perfecto retórico, que sin entender de qué está hablando, busca en su memoria -muy superior a la de un humano- las frases más asentadas, por tanto lugares comunes, que luego ordenará en una respuesta reutilizada. .

Lea también: Artículo reservado para nuestros suscriptores «Vamos a ahorrar mucho tiempo»: los aprendices de brujo de ChatGPT

Esta retórica fascinante pone a los gerentes esperando informes y a los profesores corrigiendo disertaciones frente a un espejo inquietante: ¿aún deben conformarse con síntesis humanas, si repiten, como ChatGPT, lo que dicen los textos?

Pero si tienen que solicitar, por el contrario, propuestas originales, ¿serán capaces de reconocerlas y responderlas ellos mismos? Recientes investigaciones experimentales muestran que para que un líder o un docente pueda acoger propuestas innovadoras o sorprendentes, él mismo debe ser capaz de detectar los sesgos de su propio conocimiento y los límites de su proceso creativo (Justine BoudierModelar y experimentar con un “líder desfijador” en una situación de fijaciones heterogéneas, Tesis PSL, MinesParis, 2022)

Le queda por leer el 11,48% de este artículo. Lo siguiente es solo para suscriptores.