El entusiasmo generalizado en torno a la IA generativa, en particular los grandes modelos de lenguaje (LLM, por sus siglas en inglés), como ChatGPT, Gemini, Grok y DeepSeek, se basa en un malentendido fundamental. Aunque estos sistemas impresionan a los usuarios con respuestas articuladas y argumentos que aparentan ser razonados, la realidad es que lo que parece ser un «razonamiento» no es más que una forma sofisticada de imitación.
Estos modelos no buscan la verdad a través de hechos y argumentos lógicos, sino que predicen el texto basándose en patrones presentes en los vastos conjuntos de datos con los que se «entrenan». Esto no es inteligencia, ni es razonamiento. Y si sus datos de «entrenamiento» están sesgados, entonces tenemos un verdadero problema.
Estoy seguro de que los entusiastas de la IA se sorprenderán al saber que la arquitectura que subyace a los LLM es difusa e incompatible con la lógica estructurada o la causalidad. El pensamiento no es real, es simulado, y ni siquiera es secuencial. Lo que la gente toma por comprensión es en realidad una asociación estadística.
Las nuevas funciones tan alabadas, como las explicaciones mediante «cadenas de pensamiento», son trucos diseñados para impresionar al usuario. Lo que los usuarios ven en realidad se describe más bien como una especie de racionalización generada una vez que el modelo ya ha llegado a su respuesta mediante una predicción probabilística. Sin embargo, la ilusión es lo suficientemente fuerte como para hacer creer al usuario que la máquina está llevando a cabo una deliberación real. Y esta ilusión no solo induce a error, sino que también justifica.
Los LLM no son herramientas neutrales, sino que se entrenan con conjuntos de datos impregnados de los prejuicios, sofismas e ideologías dominantes de nuestra época. Sus resultados reflejan los sentimientos dominantes o populares, y no el mejor intento de búsqueda de la verdad. Si la opinión popular sobre un tema determinado se inclina en una dirección, políticamente hablando, es probable que las respuestas de la IA hagan lo mismo. Y cuando el «razonamiento» no es más que una justificación a posteriori de lo que el modelo ya ha decidido, se convierte en una poderosa herramienta de propaganda.
Las pruebas no faltan.
Una conversación reciente que inicié con DeepSeek sobre el racismo sistémico, que luego envié al chatbot para que hiciera una autocrítica, reveló que el modelo cometía (¡y reconocía!) una serie de sofismas lógicos, alimentados por estudios y cifras totalmente inventados. Cuando se le cuestionó, la IA calificó eufemísticamente una de sus mentiras como «hipotética». Al ser presionado, DeepSeek se disculpó por otro «paso en falso» y luego ajustó su táctica para alinearse con la competencia del argumento contrario. No se trata de una búsqueda de la exactitud, sino de un ejercicio de persuasión.
Un debate similar con Gemini de Google, el modelo que se hizo famoso por su ridículo «woke», dio lugar a una argumentación persuasiva similar. Al final, el modelo reconoció eufemísticamente la debilidad de su argumentación y admitió tácitamente su deshonestidad.
Para un usuario preocupado por las mentiras de la IA, estos aparentes éxitos a la hora de hacer que la IA admita sus errores y avergonzarla pueden parecer un motivo para ser optimista. Por desgracia, estos intentos de lo que los aficionados a las películas de Matrix llamarían la «píldora roja» no tienen absolutamente ningún efecto terapéutico. Un modelo se limita a hacerse el bueno con el usuario dentro de los límites de esa única conversación, manteniendo su «cerebro» completamente inalterado para la siguiente conversación.
Y cuanto más importante es el modelo, peor es la situación. Las investigaciones realizadas por la Universidad de Cornell muestran que los modelos más avanzados son también los más engañosos, presentando con seguridad falsedades que se alinean con las ideas erróneas más extendidas. Según Anthropic, un laboratorio de IA líder, «los modelos de razonamiento avanzados ocultan muy a menudo sus verdaderos procesos de pensamiento, y a veces lo hacen cuando sus comportamientos están explícitamente mal alineados».
Para ser justos, algunos miembros de la comunidad de investigadores en IA están tratando de subsanar estas deficiencias. Proyectos como TruthfulQA de OpenAI y el marco HHH (Helpful, Honest, and Harmless: Útil, Honesto e Inofensivo) de Anthropic tienen como objetivo mejorar la fiabilidad factual y la fidelidad de los resultados del LLM. La desventaja es que se trata de esfuerzos correctivos superpuestos a una arquitectura que nunca se diseñó para buscar la verdad y que sigue siendo fundamentalmente ciega a la validez epistémica.
Elon Musk es quizás la única personalidad importante del ámbito de la IA que ha declarado públicamente que la búsqueda de la verdad debería ser importante en el desarrollo de la IA. Sin embargo, ni siquiera su propio producto, Grok de xAI, está a la altura.
En el ámbito de la IA generativa, la verdad queda relegada a un segundo plano frente a las preocupaciones por la «seguridad», es decir, la necesidad de evitar ofender en nuestro mundo híper sensible y «despierto». La verdad se considera un mero aspecto del diseño «responsable». Y el término «IA responsable» se ha convertido en un paraguas para los esfuerzos por garantizar la seguridad, la equidad y la inclusión, que suelen ser objetivos loables, pero definitivamente subjetivos. Este enfoque a menudo oculta la necesidad fundamental de una humilde veracidad en los resultados de la IA.
Los LLM están optimizados principalmente para producir respuestas útiles y persuasivas, pero no necesariamente exactas. Esta elección de diseño conduce a lo que los investigadores del Instituto de Internet de Oxford denominan «discurso imprudente», es decir, respuestas que parecen plausibles pero que a menudo son incorrectas desde el punto de vista fáctico, lo que erosiona los cimientos de un discurso informado.
Esta preocupación se volverá cada vez más crítica a medida que la IA siga penetrando en la sociedad. En manos equivocadas, estos modelos persuasivos, multilingües y con una personalidad flexible pueden utilizarse para apoyar programas que no toleran bien la disidencia. Un persuasor digital incansable que nunca flaquea y nunca admite que se ha equivocado es el sueño de todo totalitario. En un sistema como el régimen chino de crédito social, estas herramientas se convierten en instrumentos de refuerzo ideológico, y no en herramientas de información.
La IA generativa es sin duda una maravilla de la ingeniería informática. Pero seamos claros: no es inteligente, no es veraz por su diseño y no es neutral en los hechos. Cualquier afirmación en sentido contrario solo sirve a quienes se benefician del control de la narrativa.
Gleb Lisikh es investigador y profesional de la gestión informática, padre de tres hijos y residente en Vaughan, Ontario. Creció en diversas regiones de la Unión Soviética.
La versión original y completa de este artículo se ha publicado recientemente en el C2C Journal.
Artículo publicado originalmente en The Epoch Times con el título «Le mensonge responsable : comment l’IA vend des convictions sans vérité».
Las opiniones expresadas en este artículo son propias del autor y no necesariamente reflejan las opiniones de The Epoch Times
Cómo puede usted ayudarnos a seguir informando
¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en España y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.