Los moderadores de contenido informaron sobre un 80% de errores en los sistemas de IA.
La inteligencia artificial complica, en lugar de simplificar, el trabajo de los moderadores de contenido. No puede reconocer de manera confiable la brutalidad y el mal, informa Bloomberg citando a 13 filtradores profesionales de materiales en línea.
Uno de los empleados de TikTok, bajo el seudónimo de Kevin, afirmó que hace más de un año se le encargó utilizar un programa de IA en su trabajo. Estimó que la cantidad de errores era de aproximadamente el 70%. Por ejemplo, la inteligencia artificial puede informar sobre un bajo nivel de combustible en el tablero de instrumentos del automóvil en el video, aunque debería analizar el velocímetro que muestra 200 km/h.
Kevin cree que, a pesar de las dificultades que surjan, los empleadores continuarán reemplazando a las personas por máquinas.
Los moderadores profesionales han confirmado la afirmación: la IA comienza a aplicarse más rápido de lo que aprende a filtrar contenido dañino de manera efectiva.
Los expertos temen la aparición de un entorno en línea controlado por inteligencia artificial, donde el odio, la propaganda, la corrupción de menores y otras formas de amenazas en línea se difundirán libremente.
"Si se opta por la implementación de IA para reducir la cantidad de especialistas en seguridad, esto llevará a su disminución. Se necesitan personas reales," dijo el director de tecnología del Centro Canadiense de Protección Infantil, Lloyd Richardson.
El trabajo del moderador de contenido causa traumas emocionales, y contratar a suficientes personas es una tarea complicada. Los usuarios solo en YouTube suben más de 20 millones de videos al día. Las empresas están apostando por la inteligencia artificial, sin embargo, esta solo interfiere.
De los 13 moderadores con los que hablaron los periodistas de Bloomberg, 12 afirmaron que su trabajo se ha vuelto más complicado tras la integración de las redes neuronales.
«No podemos confiar en las sugerencias de la IA. En el 80% de los casos se equivoca. Ni siquiera miramos sus propuestas», declaró Janerke Kaidenova, una empleada de 36 años de una empresa de moderación de contenido en Kazajistán.
Kevin pasa tiempo corrigiendo errores, colocando manualmente etiquetas súper precisas para todo lo que ve. Este trabajo solo aumenta la carga y quita tiempo que podría dedicarse a tareas más urgentes.
Él está seguro de que sus meticulosas correcciones están entrenando efectivamente al sistema, y al final lo reemplazará, aunque la dirección no lo dice directamente.
En mayo de 2024, Reddit anunció una asociación con OpenAI, que proporcionó a los usuarios y moderadores de Reddit nuevas funciones basadas en IA.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Los moderadores de contenido informaron sobre un 80% de errores en los sistemas de IA.
La inteligencia artificial complica, en lugar de simplificar, el trabajo de los moderadores de contenido. No puede reconocer de manera confiable la brutalidad y el mal, informa Bloomberg citando a 13 filtradores profesionales de materiales en línea.
Uno de los empleados de TikTok, bajo el seudónimo de Kevin, afirmó que hace más de un año se le encargó utilizar un programa de IA en su trabajo. Estimó que la cantidad de errores era de aproximadamente el 70%. Por ejemplo, la inteligencia artificial puede informar sobre un bajo nivel de combustible en el tablero de instrumentos del automóvil en el video, aunque debería analizar el velocímetro que muestra 200 km/h.
Kevin cree que, a pesar de las dificultades que surjan, los empleadores continuarán reemplazando a las personas por máquinas.
Los moderadores profesionales han confirmado la afirmación: la IA comienza a aplicarse más rápido de lo que aprende a filtrar contenido dañino de manera efectiva.
Los expertos temen la aparición de un entorno en línea controlado por inteligencia artificial, donde el odio, la propaganda, la corrupción de menores y otras formas de amenazas en línea se difundirán libremente.
"Si se opta por la implementación de IA para reducir la cantidad de especialistas en seguridad, esto llevará a su disminución. Se necesitan personas reales," dijo el director de tecnología del Centro Canadiense de Protección Infantil, Lloyd Richardson.
El trabajo del moderador de contenido causa traumas emocionales, y contratar a suficientes personas es una tarea complicada. Los usuarios solo en YouTube suben más de 20 millones de videos al día. Las empresas están apostando por la inteligencia artificial, sin embargo, esta solo interfiere.
De los 13 moderadores con los que hablaron los periodistas de Bloomberg, 12 afirmaron que su trabajo se ha vuelto más complicado tras la integración de las redes neuronales.
«No podemos confiar en las sugerencias de la IA. En el 80% de los casos se equivoca. Ni siquiera miramos sus propuestas», declaró Janerke Kaidenova, una empleada de 36 años de una empresa de moderación de contenido en Kazajistán.
Kevin pasa tiempo corrigiendo errores, colocando manualmente etiquetas súper precisas para todo lo que ve. Este trabajo solo aumenta la carga y quita tiempo que podría dedicarse a tareas más urgentes.
Él está seguro de que sus meticulosas correcciones están entrenando efectivamente al sistema, y al final lo reemplazará, aunque la dirección no lo dice directamente.
En mayo de 2024, Reddit anunció una asociación con OpenAI, que proporcionó a los usuarios y moderadores de Reddit nuevas funciones basadas en IA.