Los datos muestran que para 2025, el número de empresas de inteligencia artificial en nuestro país superará las 6000, y la escala de la industria principal se espera que supere los 1.2 billones de yuanes. Actualmente, las aplicaciones de inteligencia artificial ya cubren industrias clave como la siderurgia, los metales no ferrosos, la electricidad y las telecomunicaciones, penetrando gradualmente en áreas clave como el desarrollo de productos, la inspección de calidad y el servicio al cliente. Como tecnología que lidera una nueva ronda de revolución tecnológica, la inteligencia artificial está transformando profundamente la forma económica y el modo de gobernanza social. Acelerar la construcción de un marco legal compatible es una medida clave para garantizar su desarrollo estable y sostenido.
Desde una perspectiva global, la gobernanza de la inteligencia artificial presenta enfoques diversos. La Unión Europea, a través de la Ley de Inteligencia Artificial, establece un modelo de regulación basado en la clasificación de riesgos, creando un sistema de supervisión de cuatro niveles: prohibido, alto riesgo, riesgo limitado y mínimo riesgo. Estados Unidos adopta una estrategia regulatoria orientada a la innovación, en la que en la Orden Ejecutiva sobre Inteligencia Artificial se enfatiza promover la innovación mediante la construcción de estándares y la autorregulación del sector. Nuestra ruta de gobernanza se caracteriza por la idea de “equilibrar desarrollo y seguridad, y coordinar innovación y regulación”, explorando innovaciones en la distribución y circulación de derechos de datos, garantizando la seguridad de los datos y facilitando el ciclo del mercado de elementos de datos, lo que ofrece valiosas referencias para la gobernanza global de la inteligencia artificial.
También debemos ser conscientes de que la construcción del marco legal para la inteligencia artificial en nuestro país aún enfrenta numerosos desafíos. En el nivel legislativo, falta una ley específica, y la coordinación entre leyes como la Ley de Seguridad Cibernética y la Ley de Seguridad de Datos aún no está completamente perfeccionada. En la implementación de la supervisión, persisten problemas como responsabilidades departamentales poco claras, solapamientos y estándares no unificados, y la relación entre los requisitos de transparencia algorítmica y la protección de secretos comerciales necesita un mejor equilibrio. En el nivel de gobernanza tecnológica, aún hay que resolver problemas como la calidad desigual de los datos, la dificultad para eliminar sesgos en los algoritmos y la ambigüedad en la responsabilidad. Además, en áreas como la protección de la propiedad intelectual y el flujo transfronterizo de datos, todavía existen fenómenos de regulación rezagada. De cara a los “Quince Cinco” (el período del 2025 al 2030), se deben implementar políticas desde múltiples ángulos, estableciendo un marco y regulaciones para respaldar la industria de la inteligencia artificial.
En el proceso legislativo, se debe construir un sistema normativo centrado en un sistema de regulación por niveles y categorías, apoyado en un sistema de estándares técnicos. En innovación regulatoria, se propone establecer plataformas de supervisión interdepartamentales, unificar los estándares de aplicación de la ley, implementar mecanismos de “sandbox” regulatorios en áreas específicas como la conducción autónoma, y crear zonas de innovación para promover la innovación bajo la premisa de garantizar la seguridad.
En la gobernanza de datos, se debe superar la dificultad en la definición de derechos de propiedad, y se puede construir un sistema integral que incluya derechos de posesión de datos, derechos de procesamiento y uso, y derechos de operación de productos de datos. Es necesario establecer mecanismos de gestión que cubran todo el ciclo de vida de los datos, desde su recopilación hasta su uso y destrucción, especialmente en aspectos como la evaluación de la calidad de los datos de entrenamiento y la estandarización de la anotación de datos.
En cuanto a la responsabilidad algorítmica, se debe establecer un mecanismo de responsabilidad que abarque todo el proceso de diseño, desarrollo y despliegue, con requisitos de evaluación obligatorios en áreas de alto riesgo. Se recomienda introducir un sistema de evaluación del impacto del algoritmo, que exija a los desarrolladores realizar evaluaciones de equidad, transparencia y seguridad antes del despliegue del sistema, y otorgar a los usuarios derechos de solicitud de explicaciones y de objeción.
Además, se debe fortalecer la responsabilidad principal de las empresas, promover la internalización de la revisión ética en los procesos de I+D, y fomentar la creación de comités de gobernanza algorítmica. Se debe guiar a las asociaciones industriales para que formulen normas y estándares técnicos de mayor nivel, establecer un sistema de certificación ética en inteligencia artificial, y perfeccionar los mecanismos de participación pública mediante audiencias, consultas con expertos y encuestas de opinión para consolidar el consenso social y garantizar que el desarrollo tecnológico sirva al interés público. También se debe participar activamente en la formulación de reglas globales, promoviendo la creación de un orden de gobernanza de la inteligencia artificial justo, inclusivo y sostenible a nivel mundial.
(Artículo original: Diario Económico)
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Diario Económico: Establecer regulaciones y sistemas para respaldar la industria de la inteligencia artificial
Los datos muestran que para 2025, el número de empresas de inteligencia artificial en nuestro país superará las 6000, y la escala de la industria principal se espera que supere los 1.2 billones de yuanes. Actualmente, las aplicaciones de inteligencia artificial ya cubren industrias clave como la siderurgia, los metales no ferrosos, la electricidad y las telecomunicaciones, penetrando gradualmente en áreas clave como el desarrollo de productos, la inspección de calidad y el servicio al cliente. Como tecnología que lidera una nueva ronda de revolución tecnológica, la inteligencia artificial está transformando profundamente la forma económica y el modo de gobernanza social. Acelerar la construcción de un marco legal compatible es una medida clave para garantizar su desarrollo estable y sostenido.
Desde una perspectiva global, la gobernanza de la inteligencia artificial presenta enfoques diversos. La Unión Europea, a través de la Ley de Inteligencia Artificial, establece un modelo de regulación basado en la clasificación de riesgos, creando un sistema de supervisión de cuatro niveles: prohibido, alto riesgo, riesgo limitado y mínimo riesgo. Estados Unidos adopta una estrategia regulatoria orientada a la innovación, en la que en la Orden Ejecutiva sobre Inteligencia Artificial se enfatiza promover la innovación mediante la construcción de estándares y la autorregulación del sector. Nuestra ruta de gobernanza se caracteriza por la idea de “equilibrar desarrollo y seguridad, y coordinar innovación y regulación”, explorando innovaciones en la distribución y circulación de derechos de datos, garantizando la seguridad de los datos y facilitando el ciclo del mercado de elementos de datos, lo que ofrece valiosas referencias para la gobernanza global de la inteligencia artificial.
También debemos ser conscientes de que la construcción del marco legal para la inteligencia artificial en nuestro país aún enfrenta numerosos desafíos. En el nivel legislativo, falta una ley específica, y la coordinación entre leyes como la Ley de Seguridad Cibernética y la Ley de Seguridad de Datos aún no está completamente perfeccionada. En la implementación de la supervisión, persisten problemas como responsabilidades departamentales poco claras, solapamientos y estándares no unificados, y la relación entre los requisitos de transparencia algorítmica y la protección de secretos comerciales necesita un mejor equilibrio. En el nivel de gobernanza tecnológica, aún hay que resolver problemas como la calidad desigual de los datos, la dificultad para eliminar sesgos en los algoritmos y la ambigüedad en la responsabilidad. Además, en áreas como la protección de la propiedad intelectual y el flujo transfronterizo de datos, todavía existen fenómenos de regulación rezagada. De cara a los “Quince Cinco” (el período del 2025 al 2030), se deben implementar políticas desde múltiples ángulos, estableciendo un marco y regulaciones para respaldar la industria de la inteligencia artificial.
En el proceso legislativo, se debe construir un sistema normativo centrado en un sistema de regulación por niveles y categorías, apoyado en un sistema de estándares técnicos. En innovación regulatoria, se propone establecer plataformas de supervisión interdepartamentales, unificar los estándares de aplicación de la ley, implementar mecanismos de “sandbox” regulatorios en áreas específicas como la conducción autónoma, y crear zonas de innovación para promover la innovación bajo la premisa de garantizar la seguridad.
En la gobernanza de datos, se debe superar la dificultad en la definición de derechos de propiedad, y se puede construir un sistema integral que incluya derechos de posesión de datos, derechos de procesamiento y uso, y derechos de operación de productos de datos. Es necesario establecer mecanismos de gestión que cubran todo el ciclo de vida de los datos, desde su recopilación hasta su uso y destrucción, especialmente en aspectos como la evaluación de la calidad de los datos de entrenamiento y la estandarización de la anotación de datos.
En cuanto a la responsabilidad algorítmica, se debe establecer un mecanismo de responsabilidad que abarque todo el proceso de diseño, desarrollo y despliegue, con requisitos de evaluación obligatorios en áreas de alto riesgo. Se recomienda introducir un sistema de evaluación del impacto del algoritmo, que exija a los desarrolladores realizar evaluaciones de equidad, transparencia y seguridad antes del despliegue del sistema, y otorgar a los usuarios derechos de solicitud de explicaciones y de objeción.
Además, se debe fortalecer la responsabilidad principal de las empresas, promover la internalización de la revisión ética en los procesos de I+D, y fomentar la creación de comités de gobernanza algorítmica. Se debe guiar a las asociaciones industriales para que formulen normas y estándares técnicos de mayor nivel, establecer un sistema de certificación ética en inteligencia artificial, y perfeccionar los mecanismos de participación pública mediante audiencias, consultas con expertos y encuestas de opinión para consolidar el consenso social y garantizar que el desarrollo tecnológico sirva al interés público. También se debe participar activamente en la formulación de reglas globales, promoviendo la creación de un orden de gobernanza de la inteligencia artificial justo, inclusivo y sostenible a nivel mundial.
(Artículo original: Diario Económico)