Os moderadores de conteúdo relataram 80% de erros nos sistemas de IA.
A inteligência artificial torna o trabalho dos moderadores de conteúdo mais complicado, e não mais simples. Ela não consegue reconhecer de forma confiável a crueldade e o mal, escreve a Bloomberg citando 13 filtradores profissionais de materiais online.
Um dos funcionários do TikTok, sob o pseudónimo Kevin, afirmou que há mais de um ano lhe foi incumbida a tarefa de usar um programa de IA no seu trabalho. Ele estimou a quantidade de erros em cerca de 70%. Por exemplo, a inteligência artificial pode informar sobre o nível baixo de combustível no painel de instrumentos do carro no vídeo, embora deva analisar o velocímetro, que mostra 200 km/h.
Kevin acredita que, apesar das dificuldades que surgem, os empregadores continuarão a substituir pessoas por máquinas.
Moderadores profissionais confirmaram a afirmação - a IA começa a ser aplicada mais rapidamente do que aprende a filtrar efetivamente o conteúdo nocivo.
Os especialistas temem o surgimento de um ambiente online controlado por inteligência artificial, onde o ódio, a propaganda, a sedução de crianças e outras formas de ameaças online serão livremente disseminadas.
«Se você optar por implementar IA para reduzir o número de especialistas em segurança, isso levará a uma diminuição. Precisamos de pessoas reais», disse Lloyd Richardson, diretor de tecnologia do Centro Canadense de Proteção Infantil.
O trabalho de moderador de conteúdo causa traumas emocionais, e contratar um número suficiente de pessoas é uma tarefa complicada. Os usuários do YouTube carregam mais de 20 milhões de vídeos por dia. As empresas estão apostando em inteligência artificial, no entanto, isso apenas atrapalha.
Dos 13 moderadores com quem os jornalistas da Bloomberg conversaram, 12 afirmaram que o trabalho se tornou mais difícil após a integração das redes neurais.
«Não podemos confiar nas sugestões da IA. Em 80% dos casos, ela está errada. Nem olhamos para suas propostas», afirmou a funcionária de 36 anos da empresa de moderação de conteúdo do Cazaquistão, Zhanerke Kaidenova.
Kevin passa tempo corrigindo erros, marcando manualmente etiquetas superprecisas para tudo o que vê. Este trabalho apenas aumenta a carga de trabalho e consome tempo que poderia ser gasto em tarefas mais urgentes.
Ele está convencido de que as suas correções meticulosas estão, na verdade, a ensinar o sistema, e que, no final, ele será substituído, embora a administração não diga isso diretamente.
Em maio de 2024, o Reddit anunciou uma parceria com a OpenAI, que forneceu novas funções baseadas em IA para os redditores e moderadores.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Os moderadores de conteúdo relataram 80% de erros nos sistemas de IA.
A inteligência artificial torna o trabalho dos moderadores de conteúdo mais complicado, e não mais simples. Ela não consegue reconhecer de forma confiável a crueldade e o mal, escreve a Bloomberg citando 13 filtradores profissionais de materiais online.
Um dos funcionários do TikTok, sob o pseudónimo Kevin, afirmou que há mais de um ano lhe foi incumbida a tarefa de usar um programa de IA no seu trabalho. Ele estimou a quantidade de erros em cerca de 70%. Por exemplo, a inteligência artificial pode informar sobre o nível baixo de combustível no painel de instrumentos do carro no vídeo, embora deva analisar o velocímetro, que mostra 200 km/h.
Kevin acredita que, apesar das dificuldades que surgem, os empregadores continuarão a substituir pessoas por máquinas.
Moderadores profissionais confirmaram a afirmação - a IA começa a ser aplicada mais rapidamente do que aprende a filtrar efetivamente o conteúdo nocivo.
Os especialistas temem o surgimento de um ambiente online controlado por inteligência artificial, onde o ódio, a propaganda, a sedução de crianças e outras formas de ameaças online serão livremente disseminadas.
«Se você optar por implementar IA para reduzir o número de especialistas em segurança, isso levará a uma diminuição. Precisamos de pessoas reais», disse Lloyd Richardson, diretor de tecnologia do Centro Canadense de Proteção Infantil.
O trabalho de moderador de conteúdo causa traumas emocionais, e contratar um número suficiente de pessoas é uma tarefa complicada. Os usuários do YouTube carregam mais de 20 milhões de vídeos por dia. As empresas estão apostando em inteligência artificial, no entanto, isso apenas atrapalha.
Dos 13 moderadores com quem os jornalistas da Bloomberg conversaram, 12 afirmaram que o trabalho se tornou mais difícil após a integração das redes neurais.
«Não podemos confiar nas sugestões da IA. Em 80% dos casos, ela está errada. Nem olhamos para suas propostas», afirmou a funcionária de 36 anos da empresa de moderação de conteúdo do Cazaquistão, Zhanerke Kaidenova.
Kevin passa tempo corrigindo erros, marcando manualmente etiquetas superprecisas para tudo o que vê. Este trabalho apenas aumenta a carga de trabalho e consome tempo que poderia ser gasto em tarefas mais urgentes.
Ele está convencido de que as suas correções meticulosas estão, na verdade, a ensinar o sistema, e que, no final, ele será substituído, embora a administração não diga isso diretamente.
Em maio de 2024, o Reddit anunciou uma parceria com a OpenAI, que forneceu novas funções baseadas em IA para os redditores e moderadores.