Diário Económico: Estabelecer regras e sistemas para apoiar a indústria de inteligência artificial

robot
Geração de resumo em curso

Os dados mostram que, até 2025, o número de empresas de inteligência artificial no nosso país ultrapassará as 6.000, com a escala da indústria principal prevista para superar 1,2 triliões de yuans. Atualmente, as aplicações de inteligência artificial já cobrem setores-chave como aço, metais não ferrosos, energia elétrica e telecomunicações, penetrando gradualmente em etapas importantes como pesquisa e desenvolvimento de produtos, inspeção de qualidade e atendimento ao cliente. Como tecnologia que lidera uma nova rodada de revolução tecnológica, a inteligência artificial está moldando profundamente a forma da economia e o modo de governança social. Acelerar a construção de um quadro jurídico compatível é uma medida crucial para garantir seu desenvolvimento estável e sustentável.

Do ponto de vista global, a governança da inteligência artificial apresenta uma diversidade de abordagens. A União Europeia, por meio do seu “Regulamento de Inteligência Artificial”, estabeleceu um modelo de supervisão baseado na classificação de risco, criando um sistema de quatro níveis: proibitivo, alto risco, risco limitado e risco mínimo. Os Estados Unidos adotam uma estratégia regulatória orientada à inovação, promovendo inovação por meio de construção de padrões e autorregulação setorial, conforme destacado na “Ordem Executiva de Inteligência Artificial”. Nosso país destaca-se por sua abordagem de “desenvolvimento e segurança em equilíbrio, inovação e regulamentação em colaboração”, explorando mecanismos de distribuição e circulação de direitos de dados, garantindo a segurança dos dados e facilitando o mercado de elementos de dados, oferecendo uma referência valiosa para a governança global da inteligência artificial.

Também é necessário reconhecer claramente que a construção do marco jurídico para a inteligência artificial no nosso país ainda enfrenta muitos desafios. No nível legislativo, há uma ausência de leis específicas, e a coordenação entre leis como a Lei de Segurança Cibernética e a Lei de Segurança de Dados ainda não está totalmente aperfeiçoada. Na implementação da supervisão, problemas como responsabilidades departamentais pouco claras, sobreposições e padrões não uniformes persistem, e a relação entre requisitos de transparência de algoritmos e proteção de segredos comerciais precisa de melhor equilíbrio. No nível de governança tecnológica, ainda há dificuldades na qualidade dos dados, na eliminação de preconceitos algorítmicos e na definição de responsabilidades. Além disso, há defasagens na regulamentação de propriedade intelectual e na circulação transfronteiriça de dados. Para o “14º Plano Quinquenal”, é necessário adotar múltiplas estratégias, estabelecer regras e regulamentos para apoiar a indústria de inteligência artificial.

No processo legislativo, deve-se construir um sistema normativo centrado em um regime de supervisão por classificação e níveis, apoiado por um sistema de padrões técnicos. Quanto à inovação regulatória, é importante criar plataformas de supervisão interdepartamentais, unificar padrões de aplicação da lei, implementar mecanismos de “sandbox regulatório” em áreas específicas como condução autônoma, estabelecer zonas de inovação experimental, promovendo inovação sob a premissa de garantir a segurança.

Na governança de dados, é fundamental superar dificuldades na definição de propriedade, podendo-se criar um sistema abrangente que inclua direitos de posse de dados, direitos de processamento e uso, e direitos de operação de produtos de dados. Deve-se estabelecer mecanismos de gestão que cubram todo o ciclo de vida dos dados, incluindo coleta, uso e destruição, especialmente na avaliação da qualidade de dados de treinamento e na padronização de marcação de dados, com padrões unificados.

Na responsabilização dos algoritmos, é necessário criar um mecanismo de responsabilização que cubra todo o processo de design, desenvolvimento e implantação, com requisitos obrigatórios de avaliação em áreas de alto risco. Introduzir avaliações de impacto de algoritmos, exigindo que os desenvolvedores realizem avaliações de equidade, transparência e segurança antes da implantação do sistema, além de conceder aos usuários o direito de solicitar explicações e contestar decisões.

Além disso, deve-se fortalecer a responsabilidade das empresas, promover a internalização da ética no processo de pesquisa e desenvolvimento, incentivar a criação de comitês de governança de algoritmos, orientar associações setoriais a estabelecer códigos de conduta e normas técnicas mais elevadas, e criar sistemas de certificação ética em inteligência artificial. É importante aprimorar os mecanismos de participação pública, por meio de audiências públicas, avaliações por especialistas e pesquisas de opinião, para consolidar o consenso social e garantir que o desenvolvimento tecnológico atenda ao interesse público. Participar ativamente na formulação de regras globais, promovendo a construção de uma ordem de governança de inteligência artificial global justa, inclusiva e sustentável.

(Origem: Diário Econômico)

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)