Una importante organización de educadores acaba de retirar su presencia oficial debido a la proliferación de material de abuso infantil generado por IA en la plataforma. Piénsalo por un segundo. Cuando instituciones de este tamaño comienzan a abandonar plataformas tradicionales, indica que algo está gravemente mal con la forma en que estas redes manejan la moderación de contenido y la seguridad de los usuarios.



Esto no es solo una maniobra de relaciones públicas o una frustración temporal—es una desconfianza a nivel institucional. ¿El hecho de que el contenido sintético generado por IA que explota a menores siga proliferando a pesar de miles de millones en capitalización de mercado y ejércitos de moderadores? Eso es un fallo de gobernanza que nadie puede justificar.

Para la comunidad Web3, este momento merece una reflexión profunda. Las plataformas descentralizadas han estado promoviendo la moderación impulsada por la comunidad como una alternativa. ¿Es realmente mejor o simplemente diferente en su fallo? Esa es la pregunta de un billón de dólares. Sin embargo, una cosa es segura: cuando los guardianes tradicionales pierden la confianza pública de esta manera, se acelera la búsqueda de alternativas, incluso las imperfectas.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • بالعربية
  • Português (Brasil)
  • 简体中文
  • English
  • Español
  • Français (Afrique)
  • Bahasa Indonesia
  • 日本語
  • Português (Portugal)
  • Русский
  • 繁體中文
  • Українська
  • Tiếng Việt