CHINA

Vigilancia global: los intentos de Pekín para utilizar ChatGPT con fines de control

octubre 14, 2025 11:39, Last Updated: octubre 14, 2025 11:39
By Lea Zhou

En resumen:

– Los operadores de China en las zonas grises de la seguridad

– ¿Piezas de un plan de vigilancia global?

– ¿Por qué ChatGPT y no DeepSeek?

– La IA es neutral; las personas, no


Gracias a la vigilancia de la empresa tecnológica estadounidense OpenAI, se impidió que usuarios de internet vinculados al Estado chino usaran ChatGPT de manera indebida para desarrollar mecanismos de vigilancia global. En el programa «Leas Einblick», una influencer china afincada en Alemania desde hace unos 30 años, analiza en detalle el informe de OpenAI titulado «Disrupting malicious uses of AI» («Impidiendo usos maliciosos de la IA»).

OpenAI destapa planes de vigilancia chinos

A principios de octubre, la empresa tecnológica estadounidense OpenAI publicó un informe relevante. La compañía bloqueó varias cuentas presuntamente vinculadas a agencias gubernamentales chinas. Estas cuentas intentaron usar indebidamente ChatGPT con fines de vigilancia más allá de la esfera de influencia del régimen, con alcance global.

Resulta sorprendente que actores chinos recurran a ChatGPT para tareas delicadas cuando China afirma haber desarrollado su propio modelo de IA, DeepSeek.

Pero, ¿qué ocurrió exactamente?

Imaginemos el siguiente caso: un usuario inicia sesión en ChatGPT, quizás mediante una VPN para ocultar su origen. En lugar de solicitar ayuda para tareas o proyectos creativos, le pide a la IA que elabore conceptos para sistemas de vigilancia masiva.

¿Ciencia ficción? En absoluto

Un informe de 37 páginas de OpenAI sobre inteligencia de amenazas documenta varios casos, agrupados bajo el título «Neutralización de usos maliciosos de IA: octubre de 2025». A continuación algunos ejemplos:

Un usuario encargó a ChatGPT ayuda en el desarrollo de una «herramienta de vigilancia masiva» que rastrillara varias plataformas como X (antes Twitter), Facebook y YouTube en busca de presuntos «discursos extremistas» o contenido sobre temas étnicos, religiosos y políticos.

Otro usuario pidió ayuda para crear un «modelo de vigilancia de personas de alto riesgo» que cruzara datos de tráfico con información policial para predecir los movimientos de poblaciones específicas, en particular de la minoría uigur.

Es importante entender que los usuarios no pedían a la IA programar ni operar esas plataformas de vigilancia; le solicitaban conceptos, especificaciones y borradores de propuestas que funcionaran como hoja de ruta del proyecto.

¿Aspira China a ser el ojo digital global?

Además de estos intentos de diseñar sistemas de vigilancia masiva, OpenAI descubrió una segunda tendencia inquietante: cuentas que usaban ChatGPT para investigación dirigida, como si fueran binoculares digitales apuntados a individuos o grupos específicos.

Un usuario preguntó a ChatGPT sobre la posible fuente de financiación de una cuenta X crítica con el gobierno chino.

Otro quería saber quién estaba detrás de una petición en Mongolia.

Particularmente sorprendente resultó el hecho de que un usuario solicitara a la IA que recopilara noticias diarias que pudieran ser relevantes para China, incluidos temas altamente sensibles como la conmemoración de la masacre de la Plaza de Tiananmén de 1989 y el cumpleaños del Dalái Lama.

OpenAI enfatiza que, en estos casos, la IA solo recopiló información públicamente disponible. Sin embargo, estas solicitudes demuestran cómo los sistemas de IA podrían utilizarse potencialmente para la investigación y la vigilancia política.

Patrones idénticos

Pero, ¿cómo pudo OpenAI identificar estas cuentas y vincularlas a China, pese a que muchas ni siquiera usaban el chino?

La respuesta no está en el idioma, sino en el comportamiento.

OpenAI analizó patrones de uso: qué solicitudes se realizaron, cuándo se realizaron y qué similitudes técnicas presentaban.

Pongamos por caso: dos personas piden ayuda para desarrollar una herramienta para monitorizar plataformas de redes sociales. Una pregunta en chino, la otra en inglés. Pero el patrón es idéntico, como una huella dactilar distintiva. Es como si alguien hablara con un acento que una IA podría no percibir, pero la intención subyacente permanece la misma. O, como lo expresa poéticamente el informe: «Puede que la IA no sea capaz de percibir un acento, pero el «tono»  del comportamiento no se puede ocultar».

¿Y el modelo chino DeepSeek?

China ha desarrollado modelos propios de IA, como DeepSeek. Sin embargo, surge la pregunta: ¿por qué algunos operadores chinos utilizan ChatGPT en lugar de DeepSeek para tareas tan sensibles?

La primera razón parece ser técnica: ChatGPT cuenta con capacidades de generación de código más avanzadas, especialmente para contenido técnico en inglés.

La segunda razón es paradójica: los modelos de IA chinos como DeepSeek están bajo estricta supervisión estatal. Los temas políticos y de seguridad allí están prácticamente vetados. Así, algunos empleados de agencias gubernamentales recurren a ChatGPT desde el exterior o mediante VPN —cuyo uso está restringido en China— para obtener lineamientos y propuestas conceptuales para sistemas de vigilancia.

La tercera razón alude a la flexibilidad: ChatGPT ofrece acceso global y su API resulta más versátil.

Curiosamente, Alemania vetó la aplicación DeepSeek en junio de 2025 debido a la preocupación por transferencias de datos a China y la posible vigilancia. Es un ejemplo de cómo el problema adquiere dimensión internacional.

Los sistemas de IA nacieron para ayudar a las personas a comprender mejor el mundo, pero ahora se utilizan cada vez más para vigilar a la gente. Cuando la IA se utiliza para monitorizar las redes sociales, ya no se trata solo de un problema de seguridad nacional. Cuando la vigilancia traspasa fronteras, idiomas y plataformas, teóricamente cualquier individuo, esté donde esté, puede convertirse en objetivo.

Este caso demuestra que la IA en sí misma es una herramienta. Lo que importa es quién la usa y con qué propósito. Como señaló un usuario: «La IA comenzó como inteligencia artificial, pero se está convirtiendo cada vez más en inteligencia controlada».

La intervención de OpenAI para bloquear usos indebidos pone de relieve una verdad incómoda: la IA es neutral, pero quienes la emplean no lo son. Estas revelaciones son, probablemente, apenas el inicio de una cadena de retos para la seguridad de la IA.

Artículo publicado originalmente en The Epoch Times Alemania con el título «Globale Überwachung: Wie Peking ChatGPT missbrauchen wollte»

Cómo puede usted ayudarnos a seguir informando

¿Por qué necesitamos su ayuda para financiar nuestra cobertura informativa en España y en todo el mundo? Porque somos una organización de noticias independiente, libre de la influencia de cualquier gobierno, corporación o partido político. Desde el día que empezamos, hemos enfrentado presiones para silenciarnos, sobre todo del Partido Comunista Chino. Pero no nos doblegaremos. Dependemos de su generosa contribución para seguir ejerciendo un periodismo tradicional. Juntos, podemos seguir difundiendo la verdad.

Ver en lagranepoca.com
COMPARTIR