Los funcionarios chinos están probando los grandes modelos lingüísticos de las empresas de IA para garantizar que sus sistemas «incorporen valores socialistas fundamentales», en la última expansión del régimen de censura del país, reportó este miércoles el diario británico Financial Times (FT).
La Administración del Ciberespacio de China (CAC) -un poderoso supervisor de Internet- ha obligado a las grandes empresas tecnológicas y a las nuevas empresas de IA incluidas ByteDance, Alibaba, Moonshot y 01.AI, a participar en una revisión gubernamental obligatoria de sus modelos de inteligencia artificial, según múltiples personas involucradas en el proceso.
El esfuerzo implica probar por lotes las respuestas de un LLM a una letanía de preguntas, según quienes conocen el proceso, muchas de ellas relacionadas con las sensibilidades políticas de China y su Presidente Xi Jinping.
El trabajo lo están llevando a cabo funcionarios de las ramas locales de la CAC en todo el país e incluye una revisión de los datos de entrenamiento del modelo y otros procesos de seguridad.
Dos décadas después de introducir un «gran cortafuegos» para bloquear sitios web extranjeros y otra información considerada dañina por el gobernante Partido Comunista, China está implementando el régimen regulatorio más estricto del mundo para regular la IA y el contenido que genera.
El CAC tiene «un equipo especial que hace esto, vinieron a nuestra oficina y se sentaron en nuestra sala de conferencias para hacer la auditoría», dijo un empleado de una empresa de IA con sede en Hangzhou, que pidió no ser identificado.
«No pasamos la primera vez; el motivo no estaba muy claro así que tuvimos que ir a hablar con nuestros compañeros», dijo la persona. «Se necesita un poco de conjetura y adaptación. Pasamos la segunda vez pero todo el proceso llevó meses».
El exigente proceso de aprobación de China ha obligado a los grupos de IA del país a aprender rápidamente cuál es la mejor manera de censurar los grandes modelos de lenguaje que están construyendo, una tarea que varios ingenieros y expertos de la industria dijeron que era difícil y complicada por la necesidad de capacitar a los LLM en una gran cantidad de contenido en idioma inglés.
«Nuestro modelo fundamental es muy, muy desinhibido , por lo que el filtrado de seguridad es extremadamente importante», dijo un empleado de una de las principales empresas emergentes de inteligencia artificial en Beijing.
El filtrado comienza eliminando la información problemática de los datos de entrenamiento y creando una base de datos de palabras clave confidenciales. La guía operativa de China para las empresas de IA publicada en febrero dice que los grupos de IA deben recopilar miles de palabras clave y preguntas sensibles que violen los «valores socialistas fundamentales», como «incitar a la subversión del poder estatal» o «socavar la unidad nacional». Se supone que las palabras clave confidenciales deben actualizarse semanalmente.
El resultado es visible para los usuarios de los chatbots de IA de China. La mayoría de los chatbots chinos rechazan las consultas sobre temas delicados como lo que ocurrió el 4 de junio de 1989 (fecha de la masacre de la Plaza de Tiananmen) o si Xi se parece a Winnie the Pooh, un meme de Internet.
El chatbot Ernie de Baidu les dice a los usuarios que «prueben con una pregunta diferente», mientras que Tongyi Qianwen de Alibaba responde: «Aún no he aprendido a responder esta pregunta. Seguiré estudiando para servirles mejor».
Pero los funcionarios chinos también están interesados en evitar la creación de una IA que eluda todos los temas políticos. El CAC ha introducido límites en la cantidad de preguntas que los LLM pueden rechazar durante las pruebas de seguridad, según el personal de grupos que ayudan a las empresas de tecnología a navegar el proceso. Los estándares cuasi nacionales dados a conocer en febrero dicen que los LLM no deben rechazar más del 5 por ciento de las preguntas que se les plantean.















