Модератори контенту заявили про 80% помилок ІІ-систем
Штучний інтелект ускладнює, а не спрощує роботу модераторів контенту. Він не може надійно розпізнавати жорстокість і зло, пише Bloomberg з посиланням на 13 професійних фільтраторів онлайн-матеріалів.
Один із співробітників TikTok під псевдонимом Кевін заявив, що більше року тому йому доручили використовувати ІІ-програму у своїй роботі. Він оцінив кількість помилок приблизно в 70%. Наприклад, штучний інтелект може повідомити про низький рівень пального на приладовій панелі автомобіля на відео, хоча повинен проаналізувати спідометр, що показує 200 км/год.
Кевін вважає, що попри виникаючі труднощі, роботодавці продовжать замінювати людей машинами.
Професійні модератори підтвердили твердження — ШІ починають застосовувати швидше, ніж він навчається якісно відсіювати шкідливий контент.
Експерти побоюються виникнення контрольованого штучним інтелектом інтернет-середовища, в якому ненависть, пропаганда, спокушання дітей та інші форми онлайн-загроз будуть вільно поширюватися.
«Якщо стати на шлях впровадження ШІ, щоб скоротити кількість фахівців з безпеки, це призведе до її зменшення. Потрібні живі люди», — заявив директор з технологій Канадського центру захисту дітей Ллойд Річардсон.
Робота модератора контенту завдає емоційних травм, а найм достатньої кількості людей — складне завдання. Користувачі лише на YouTube завантажують понад 20 млн відео на день. Компанії ставлять на штучний інтелект, проте він лише заважає.
З 13 модераторів, з якими поговорили журналісти Bloomberg, 12 заявили про ускладнення роботи після інтеграції нейромереж.
«Ми не можемо покладатися на підказки ШІ. У 80% випадків він помиляється. Ми навіть не дивимося на його пропозиції», — заявила 36-річна співробітниця казахстанської компанії з модерації контенту Жанерке Каіденова.
Кевін витрачає час на виправлення помилок, вручну встановлюючи надточні мітки для всього побаченого. Ця робота лише збільшує навантаження та забирає час, який можна було б витратити на більш термінові завдання.
Він впевнений, що його ретельні виправлення фактично навчають систему, і в результаті вона замінить його, хоча керівництво прямо про це не говорить.
У травні 2024 року Reddit оголосила про партнерство з OpenAI, яке надало реддиторам та модераторам нові функції на базі ШІ.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Модератори контенту заявили про 80% помилок ІІ-систем
Штучний інтелект ускладнює, а не спрощує роботу модераторів контенту. Він не може надійно розпізнавати жорстокість і зло, пише Bloomberg з посиланням на 13 професійних фільтраторів онлайн-матеріалів.
Один із співробітників TikTok під псевдонимом Кевін заявив, що більше року тому йому доручили використовувати ІІ-програму у своїй роботі. Він оцінив кількість помилок приблизно в 70%. Наприклад, штучний інтелект може повідомити про низький рівень пального на приладовій панелі автомобіля на відео, хоча повинен проаналізувати спідометр, що показує 200 км/год.
Кевін вважає, що попри виникаючі труднощі, роботодавці продовжать замінювати людей машинами.
Професійні модератори підтвердили твердження — ШІ починають застосовувати швидше, ніж він навчається якісно відсіювати шкідливий контент.
Експерти побоюються виникнення контрольованого штучним інтелектом інтернет-середовища, в якому ненависть, пропаганда, спокушання дітей та інші форми онлайн-загроз будуть вільно поширюватися.
«Якщо стати на шлях впровадження ШІ, щоб скоротити кількість фахівців з безпеки, це призведе до її зменшення. Потрібні живі люди», — заявив директор з технологій Канадського центру захисту дітей Ллойд Річардсон.
Робота модератора контенту завдає емоційних травм, а найм достатньої кількості людей — складне завдання. Користувачі лише на YouTube завантажують понад 20 млн відео на день. Компанії ставлять на штучний інтелект, проте він лише заважає.
З 13 модераторів, з якими поговорили журналісти Bloomberg, 12 заявили про ускладнення роботи після інтеграції нейромереж.
«Ми не можемо покладатися на підказки ШІ. У 80% випадків він помиляється. Ми навіть не дивимося на його пропозиції», — заявила 36-річна співробітниця казахстанської компанії з модерації контенту Жанерке Каіденова.
Кевін витрачає час на виправлення помилок, вручну встановлюючи надточні мітки для всього побаченого. Ця робота лише збільшує навантаження та забирає час, який можна було б витратити на більш термінові завдання.
Він впевнений, що його ретельні виправлення фактично навчають систему, і в результаті вона замінить його, хоча керівництво прямо про це не говорить.
У травні 2024 року Reddit оголосила про партнерство з OpenAI, яке надало реддиторам та модераторам нові функції на базі ШІ.