Un llamado a la cautela, del que se hizo eco el Ministerio de Seguridad del Estado, subraya la preocupación del gobierno por cómo la información sesgada o falseada podría amenazar la estabilidad social y la seguridad nacional
A pesar de que gigantes digitales chinos como Alibaba, DeepSeek y ByteDance lanzaron sus propios chatbots, su desarrollo operaba bajo un estricto régimen de censura. | Foto Pplware
En una clara señal de su creciente inquietud, China emitió una severa advertencia sobre la «contaminación de datos» en los sistemas de inteligencia artificial (IA). De esta manera, instó a las empresas tecnológicas a reforzar el control sobre la información con la que entrenaban sus modelos.
Este llamado a la cautela, del que se hizo eco el Ministerio de Seguridad del Estado, subraya la preocupación del gobierno por cómo la información sesgada o falseada podría amenazar la estabilidad social y la seguridad nacional.
En un comunicado publicado en su cuenta oficial de WeChat, el ministerio explicó que la proliferación de textos, imágenes y videos creados por IA había elevado la probabilidad de que material «falseado, sesgado o repetitivo» corrompiera los nuevos conjuntos de entrenamiento.
Según EFE, dicha degradación en los datos, indican las autoridades, podía llevar a errores de juicio, «decisiones automáticas equivocadas» e, incluso, a la «manipulación de la opinión pública».
Para ilustrar el riesgo, citaron un estudio que demostró cómo una muestra falsa entre 10.000 era suficiente para que el volumen de respuestas «nocivas» de un modelo aumentara de forma perceptible.
IA, un problema tecnológico y de seguridad nacional
Esta preocupación por el «efecto cascada» —donde un contenido artificial alimenta a otros sistemas— se extendió a sectores sensibles como la sanidad, las finanzas y la seguridad pública.
La advertencia del ministerio conectó directamente con un llamado previo, en el que alertó que la IA podría convertirse en una amenaza para la «estabilidad social» y la seguridad nacional si caía en manos de «fuerzas hostiles».
Para mitigar estos peligros, el gobierno recordó a las plataformas que, desde enero, un reglamento les había exigido realizar auditorías de seguridad, «marcar claramente» el contenido generado por IA y eliminar información que violara las normas.
Estas regulaciones se sumaron a una norma de 2023 que obligaba a los servicios de IA a alinearse con los «valores socialistas fundamentales». Asimismo, a prohibir la creación de cualquier contenido que atentara contra la seguridad nacional.
A pesar de que gigantes digitales chinos como Alibaba, DeepSeek y ByteDance lanzaron sus propios chatbots, su desarrollo operaba bajo un estricto régimen de censura.
El Ministerio de Seguridad del Estado, a su vez, continuó su campaña de concientización, instando a la población a «prevenir y combatir el espionaje» y a desconfiar de ofertas de empleo o solicitudes de información de procedencia extranjera, lo que demostró que el control sobre la IA era solo un frente más en la gran estrategia de seguridad del Estado.
@elpregon.news #Noti-Imágenes
Noti/Imágenes
Síguenos en:
Instagram: elpregon.news
Facebook: El Pregón Venezolano
“X” antes Twitter: @DiarioElPregón
Telegram: elpregon.news
Amenhotep Planas Raga en “X” @AmenhotepPlanas
En Ig: Planas Raga