viernes, noviembre 15, 2024
InicioCiencia y TecnologíaChina regulará la inteligencia artificial para que cumpla con "valores socialistas"

China regulará la inteligencia artificial para que cumpla con «valores socialistas»

Las empresas de inteligencia artificial en China están sometiendo a una revisión gubernamental de sus grandes modelos lingüísticos, con el objetivo de garantizar que “encarnen valores socialistas fundamentales”, según un informe del Financial Times.

Sigue nuestra nueva cuenta en Instagram @cactus24informa

La revisión la está llevando a cabo la Administración del Ciberespacio de China (CAC), el principal regulador de Internet del gobierno, y cubrirá a actores de todo el espectro, desde gigantes tecnológicos como ByteDance y Alibaba.
A pequeñas empresas emergentes.

Los funcionarios locales de la CAC pondrán a prueba los modelos de IA para comprobar sus respuestas a una variedad de preguntas, muchas de ellas relacionadas con temas políticamente sensibles y con el presidente chino Xi Jinping, según informó FT. También se revisarán los datos de entrenamiento y los procesos de seguridad del modelo.

No Description

Una fuente anónima de una empresa de inteligencia artificial con sede en Hangzhou que habló con el FT dijo que su modelo no pasó la primera ronda de pruebas por razones poco claras. Solo pasaron la segunda vez después de meses de “adivinar y ajustar”, dijeron en el informe.

Los últimos esfuerzos de la CAC ilustran cómo Beijing ha caminado por la cuerda floja entre alcanzar a Estados Unidos en GenAI y al mismo tiempo seguir de cerca el desarrollo de la tecnología, asegurándose de que el contenido generado por IA se adhiera a sus estrictas políticas de censura en Internet .


El país fue uno de los primeros en finalizar las reglas que rigen la inteligencia artificial generativa el año pasado, incluido el requisito de que los servicios de IA se adhieran a los “valores fundamentales del socialismo” y no generen contenido “ilegal”.

Cumplir con las políticas de censura requiere un “filtrado de seguridad”, y se ha vuelto complicado porque los LLM chinos todavía reciben capacitación en una cantidad significativa de contenido en idioma inglés, dijeron al FT varios ingenieros y personas con información privilegiada de la industria.

Según el informe, el filtrado se realiza eliminando “información problemática” de los datos de entrenamiento del modelo de IA y luego creando una base de datos de palabras y frases que son sensibles.

Según se informa, las regulaciones han llevado a que los chatbots más populares del país a menudo se nieguen a responder preguntas sobre temas delicados como las protestas de la Plaza Tiananmen de 1989.

Sin embargo, durante las pruebas CAC, hay límites en la cantidad de preguntas que los LLM pueden rechazar directamente, por lo que los modelos deben ser capaces de generar “respuestas políticamente correctas” a preguntas delicadas.

Un experto en inteligencia artificial que trabaja en un chatbot en China dijo al FT que es difícil evitar que los LLM generen todo el contenido potencialmente dañino, por lo que en su lugar construyen una capa adicional en el sistema que reemplaza las respuestas problemáticas en tiempo real.

Las regulaciones, así como las sanciones estadounidenses que han restringido el acceso a los chips utilizados para entrenar a los LLM, han dificultado que las empresas chinas lancen sus propios servicios similares a ChatGPT . Sin embargo, China domina la carrera mundial en patentes de IA generativa ..

Cactus24// 20-07-24

Abre este enlace para unirte al grupo de WhatsApp e Instagram
También estamos en TelegramFacebook y el canal de Whatsapp

Lo más popular