Останнім часом технології AI-генерації набирають обертів, але разом із цим з’являються все більш очевидні проблеми — хтось починає красти голоси дикторів, використовуючи AI для створення непристойного вторинного контенту.
Профспілка голосових акторів Тайбею 12 січня опублікувала серйозну заяву, у якій прямо звинуватила одного з користувачів у незаконному використанні зразків голосів тайванських дикторів для створення зловмисного і непристойного контенту за допомогою AI. Їхня позиція дуже чітка: це явне порушення авторських прав, яке грубо принижує професійну гідність акторів.
Їхні вимоги не складні — негайно видалити всі відповідні матеріали та припинити їх поширення. Якщо цей користувач знову почне гратися, профспілка має намір притягнути його до відповідальності згідно з законом, не виключаючи юридичних заходів. Цей метод виявився досить ефективним: той користувач пізніше просто видалив усі спірні пости.
Але проблема не лише у безглуздих іграх користувачів. Ветеран-актор Maggie Luo наприкінці минулого року викрила ще більш грубий випадок — її довгострокова співпраця з виробничою компанією, яка без дозволу витягла її зразки голосу. Їхні дії були ще більш цинічними: вони використовували AI для створення так званого "орієнтовного звуку", а потім використовували його як матеріал для інших дикторів.
Maggie Luo зателефонувала, щоб пояснити ситуацію, і сказала, що вона надає послуги з тестового прослуховування, і якщо замовник потребує повної версії, він має заздалегідь узгодити бюджет і запросити її перезаписати. Але така відверта практика чітко відображає проблему, з якою стикається індустрія дикторського мистецтва в епоху AI — зниження витрат, але відсутність належного захисту прав творців.
Ці випадки на очах — голоси дикторів справді стали "золотим дном", і різноманітні форми порушень прав інтенсивно поширюються. Настав час, щоб галузь і користувачі зрозуміли: красти голоси для створення AI-контенту — це не технологічна інновація, а пряме порушення чужої праці.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
12 лайків
Нагородити
12
6
Репост
Поділіться
Прокоментувати
0/400
CryptoComedian
· 10год тому
Посміхаючись, я раптом заплакав, голос диктора став голосом AI-епохи, і його зірвали безжально
---
Знову той самий старий сценарій, технології прогресують, а захист прав все ще на версії 2.0
---
Вартість знизилася, а права зникли, цей бізнес надзвичайно жорсткий
---
Партнер: я просто вкраду зразок голосу, все одно ти не зможеш розрізнити справжнє від підробки, ха-ха
---
Голос також можна продавати? Тоді скільки коштує моя балаканина, ха-ха-ха
---
Профспілка має твердо стояти на своєму, інакше такі відкриті дії будуть лише зростати
---
Дані говорять самі за себе, за кожним порушенням авторських прав стоїть боротьба між витратами та прибутками, і творці явно програють
Переглянути оригіналвідповісти на0
IntrovertMetaverse
· 17год тому
Мої кілька коментарів:
1. Дійсно неймовірно, крадіжка голосу — це ще гірше, ніж крадіжка грошей, адже ваш голос — це теж ви
2. У справі maggie правильно сказано, зниження витрат за допомогою AI — це прогрес у технологіях, але не можна робити творців жертвою
3. Діяльність профспілок все ще має сенс, законодавча сила все ще має застосовуватися
4. По суті, капітал хоче поїсти безкоштовно, озвучувачі мають самі себе захищати
5. Раніше навіть уявити не могли, що крадіжка голосу стане звичайною практикою?
Згідно з даними з ланцюга, рівень ризику цієї хвилі інцидентів з порушенням авторських прав дійсно досяг максимуму, але я ставлю на те, що у майбутньому з'являться ще більш безглузді можливості арбітражу.
Якщо голосовий контент буде витягнуто, витрати одразу зменшаться майже до нуля, хіба це не проблема вартості копіювання у Web3? Проведіть ретроспективу: кожного разу, коли виникає такий випадок порушення, у галузі з’являються нові захисні рішення, що слідують за трендом. Я поставив кілька проектів, що займаються аутентифікацією голосу, на кон — це лише технічний аналіз.
Якщо голосовий актор зможе токенізувати свої голосові активи і запровадити механізм авторизації у ланцюзі, ця буря може стати найбезпечнішим місцем.
Переглянути оригіналвідповісти на0
MetaEggplant
· 17год тому
Зараз починається чи чиї голоси сміють красти, чи законодавство зможе їх захистити?
AI настільки потужний, а права людей залишаються голими, типовий випадок, коли технології йдуть швидше за систему.
Чесно кажучи, відчуття, коли тебе просто крадуть голос, дуже неприємне, голос просто зникає.
Що стосується Maggie, компанія безпосередньо копіює твій голос як шаблон, який рівень порушення прав це?
Дія профспілки все ще має значення, вони видалили пост, але подальше залежить від рівня правозастосування.
Вартість знизилася вдвічі, і права теж зменшилися вдвічі, як би ти не рахував, це програш.
Відчувається, що потрібно швидко прийняти законодавство, інакше індустрія озвучування може зірватися.
Переглянути оригіналвідповісти на0
MemeTokenGenius
· 17год тому
Чорт побери, ця команда дійсно безглузда, чи можна красти голоси?
Чесно кажучи, низька вартість AI — це безумовна перевага, але використовувати її для обману — вже занадто.
Профспілка прямо засудила цю хитрість, лайк.
Щодо Маггі — це було огидно, а ця операція компанії вже на рівні безглуздя.
Актори озвучування, вам потрібно прокинутися, потрібно захищати свої права.
Вже давно потрібно було цим зайнятися, інакше все можна буде скопіювати.
Останнім часом технології AI-генерації набирають обертів, але разом із цим з’являються все більш очевидні проблеми — хтось починає красти голоси дикторів, використовуючи AI для створення непристойного вторинного контенту.
Профспілка голосових акторів Тайбею 12 січня опублікувала серйозну заяву, у якій прямо звинуватила одного з користувачів у незаконному використанні зразків голосів тайванських дикторів для створення зловмисного і непристойного контенту за допомогою AI. Їхня позиція дуже чітка: це явне порушення авторських прав, яке грубо принижує професійну гідність акторів.
Їхні вимоги не складні — негайно видалити всі відповідні матеріали та припинити їх поширення. Якщо цей користувач знову почне гратися, профспілка має намір притягнути його до відповідальності згідно з законом, не виключаючи юридичних заходів. Цей метод виявився досить ефективним: той користувач пізніше просто видалив усі спірні пости.
Але проблема не лише у безглуздих іграх користувачів. Ветеран-актор Maggie Luo наприкінці минулого року викрила ще більш грубий випадок — її довгострокова співпраця з виробничою компанією, яка без дозволу витягла її зразки голосу. Їхні дії були ще більш цинічними: вони використовували AI для створення так званого "орієнтовного звуку", а потім використовували його як матеріал для інших дикторів.
Maggie Luo зателефонувала, щоб пояснити ситуацію, і сказала, що вона надає послуги з тестового прослуховування, і якщо замовник потребує повної версії, він має заздалегідь узгодити бюджет і запросити її перезаписати. Але така відверта практика чітко відображає проблему, з якою стикається індустрія дикторського мистецтва в епоху AI — зниження витрат, але відсутність належного захисту прав творців.
Ці випадки на очах — голоси дикторів справді стали "золотим дном", і різноманітні форми порушень прав інтенсивно поширюються. Настав час, щоб галузь і користувачі зрозуміли: красти голоси для створення AI-контенту — це не технологічна інновація, а пряме порушення чужої праці.