Moderator konten melaporkan 80% kesalahan sistem AI
Kecerdasan buatan mempersulit, bukan mempermudah, pekerjaan moderator konten. Ia tidak dapat secara andal mengenali kekerasan dan kejahatan, tulis Bloomberg mengutip 13 penyaring profesional materi daring.
Salah satu karyawan TikTok dengan nama samaran Kevin mengklaim bahwa lebih dari setahun yang lalu ia ditugaskan untuk menggunakan program AI dalam pekerjaannya. Ia memperkirakan jumlah kesalahan sekitar 70%. Misalnya, kecerdasan buatan dapat melaporkan level bahan bakar rendah di dasbor mobil dalam video, meskipun seharusnya menganalisis speedometer yang menunjukkan 200 km/jam.
Kevin percaya bahwa, meskipun ada kesulitan yang muncul, para majikan akan terus menggantikan manusia dengan mesin.
Moderator profesional telah mengonfirmasi pernyataan - AI mulai diterapkan lebih cepat daripada ia belajar untuk secara efektif menyaring konten berbahaya.
Para ahli khawatir tentang munculnya lingkungan internet yang dikendalikan oleh kecerdasan buatan, di mana kebencian, propaganda, pencabulan anak, dan bentuk ancaman online lainnya akan menyebar secara bebas.
"Jika kita memilih untuk menerapkan AI untuk mengurangi jumlah spesialis keamanan, itu akan mengakibatkan penurunannya. Kita membutuhkan orang-orang yang hidup," kata Direktur Teknologi Pusat Perlindungan Anak Kanada, Lloyd Richardson.
Pekerjaan moderator konten menimbulkan trauma emosional, dan merekrut jumlah orang yang cukup adalah tugas yang sulit. Pengguna hanya di YouTube mengunggah lebih dari 20 juta video setiap hari. Perusahaan mengandalkan kecerdasan buatan, namun itu hanya menghambat.
Dari 13 moderator yang diajak bicara oleh jurnalis Bloomberg, 12 menyatakan bahwa pekerjaan mereka menjadi lebih sulit setelah integrasi jaringan saraf.
"Kita tidak bisa mengandalkan saran AI. Dalam 80% kasus, ia salah. Kami bahkan tidak melihat sarannya," kata Jhanerke Kaidenova, seorang karyawan berusia 36 tahun dari perusahaan moderasi konten di Kazakhstan.
Kevin menghabiskan waktu untuk memperbaiki kesalahan dengan secara manual menempatkan label yang sangat akurat untuk semua yang terlihat. Pekerjaan ini hanya meningkatkan beban kerja dan menghabiskan waktu yang seharusnya bisa digunakan untuk tugas-tugas yang lebih mendesak.
Dia yakin bahwa perbaikan telitinya sebenarnya melatih sistem, dan pada akhirnya sistem tersebut akan menggantikannya, meskipun manajemen tidak secara langsung mengatakannya.
Pada Mei 2024, Reddit mengumumkan kemitraan dengan OpenAI, yang memberikan fitur baru berbasis AI kepada pengguna Reddit dan moderator.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Moderator konten melaporkan 80% kesalahan sistem AI
Kecerdasan buatan mempersulit, bukan mempermudah, pekerjaan moderator konten. Ia tidak dapat secara andal mengenali kekerasan dan kejahatan, tulis Bloomberg mengutip 13 penyaring profesional materi daring.
Salah satu karyawan TikTok dengan nama samaran Kevin mengklaim bahwa lebih dari setahun yang lalu ia ditugaskan untuk menggunakan program AI dalam pekerjaannya. Ia memperkirakan jumlah kesalahan sekitar 70%. Misalnya, kecerdasan buatan dapat melaporkan level bahan bakar rendah di dasbor mobil dalam video, meskipun seharusnya menganalisis speedometer yang menunjukkan 200 km/jam.
Kevin percaya bahwa, meskipun ada kesulitan yang muncul, para majikan akan terus menggantikan manusia dengan mesin.
Moderator profesional telah mengonfirmasi pernyataan - AI mulai diterapkan lebih cepat daripada ia belajar untuk secara efektif menyaring konten berbahaya.
Para ahli khawatir tentang munculnya lingkungan internet yang dikendalikan oleh kecerdasan buatan, di mana kebencian, propaganda, pencabulan anak, dan bentuk ancaman online lainnya akan menyebar secara bebas.
"Jika kita memilih untuk menerapkan AI untuk mengurangi jumlah spesialis keamanan, itu akan mengakibatkan penurunannya. Kita membutuhkan orang-orang yang hidup," kata Direktur Teknologi Pusat Perlindungan Anak Kanada, Lloyd Richardson.
Pekerjaan moderator konten menimbulkan trauma emosional, dan merekrut jumlah orang yang cukup adalah tugas yang sulit. Pengguna hanya di YouTube mengunggah lebih dari 20 juta video setiap hari. Perusahaan mengandalkan kecerdasan buatan, namun itu hanya menghambat.
Dari 13 moderator yang diajak bicara oleh jurnalis Bloomberg, 12 menyatakan bahwa pekerjaan mereka menjadi lebih sulit setelah integrasi jaringan saraf.
"Kita tidak bisa mengandalkan saran AI. Dalam 80% kasus, ia salah. Kami bahkan tidak melihat sarannya," kata Jhanerke Kaidenova, seorang karyawan berusia 36 tahun dari perusahaan moderasi konten di Kazakhstan.
Kevin menghabiskan waktu untuk memperbaiki kesalahan dengan secara manual menempatkan label yang sangat akurat untuk semua yang terlihat. Pekerjaan ini hanya meningkatkan beban kerja dan menghabiskan waktu yang seharusnya bisa digunakan untuk tugas-tugas yang lebih mendesak.
Dia yakin bahwa perbaikan telitinya sebenarnya melatih sistem, dan pada akhirnya sistem tersebut akan menggantikannya, meskipun manajemen tidak secara langsung mengatakannya.
Pada Mei 2024, Reddit mengumumkan kemitraan dengan OpenAI, yang memberikan fitur baru berbasis AI kepada pengguna Reddit dan moderator.