Nouvelles de Gate News, 8 avril, OpenAI a publié un plan directeur de politique visant à renforcer le cadre américain de protection des enfants à l’ère de l’IA. Ce plan se concentre sur trois grands domaines prioritaires : mettre à jour la législation pour faire face aux contenus d’abus sexuel d’enfants (CSAM) générés ou falsifiés par l’IA, améliorer les mécanismes de signalement et de coordination des fournisseurs de services afin de soutenir des enquêtes plus efficaces, et intégrer des mesures de conception sécurisée dans les systèmes d’IA pour prévenir et détecter les comportements abusifs. Le plan a été élaboré en tenant compte des retours du Centre national américain pour les enfants disparus et exploités (NCMEC), de l’Attorney General Alliance et de ses coprésidents du groupe de travail sur l’IA, le procureur général de l’État de North Carolina Jeff Jackson et le procureur général de l’État de l’Utah Derek Brown, ainsi que des avis de plusieurs autres organismes et experts, dont Thorn. Les coprésidents du groupe de travail sur l’IA, Jeff Jackson et Derek Brown, ont indiqué que ce plan constituait une étape importante pour aligner les pratiques de sécurité des enfants de l’industrie technologique avec la réalité des forces de l’ordre ; une protection efficace de l’IA générative nécessite un système de défense à plusieurs niveaux, et non un seul moyen technique. Karen White, directrice exécutive de l’Attorney General Alliance, a déclaré que l’Alliance fait avancer des solutions concrètes dans les domaines de l’IA et de la sécurité numérique en rassemblant les forces de tous les acteurs concernés.