Les modérateurs de contenu ont signalé 80 % d'erreurs des systèmes d'IA.
L'intelligence artificielle complique plutôt qu'elle ne simplifie le travail des modérateurs de contenu. Elle ne peut pas reconnaître de manière fiable la cruauté et le mal, écrit Bloomberg en se référant à 13 filtres professionnels de matériaux en ligne.
Un des employés de TikTok sous le pseudonyme de Kevin a déclaré qu'on lui avait demandé il y a plus d'un an d'utiliser un programme d'IA dans son travail. Il a évalué le nombre d'erreurs à environ 70%. Par exemple, l'intelligence artificielle peut signaler un faible niveau de carburant sur le tableau de bord de la voiture dans la vidéo, alors qu'elle devrait analyser le compteur de vitesse affichant 200 km/h.
Kevin pense que, malgré les difficultés rencontrées, les employeurs continueront à remplacer les humains par des machines.
Des modérateurs professionnels ont confirmé l'affirmation : l'IA commence à être appliquée plus rapidement qu'elle n'apprend à filtrer efficacement le contenu malveillant.
Les experts craignent l'émergence d'un environnement Internet contrôlé par l'intelligence artificielle, où la haine, la propagande, la corruption des enfants et d'autres formes de menaces en ligne pourront se répandre librement.
«Si nous nous engageons dans la voie de l'intégration de l'IA pour réduire le nombre de spécialistes en sécurité, cela entraînera une diminution. Des êtres humains sont nécessaires», a déclaré Lloyd Richardson, directeur des technologies du Centre canadien de protection de l'enfance.
Le travail de modérateur de contenu cause des traumatismes émotionnels, et embaucher un nombre suffisant de personnes est une tâche complexe. Les utilisateurs de YouTube téléchargent plus de 20 millions de vidéos par jour. Les entreprises misent sur l'intelligence artificielle, mais celle-ci ne fait qu'entraver.
Parmi les 13 modérateurs interrogés par les journalistes de Bloomberg, 12 ont déclaré que leur travail s'était compliqué après l'intégration des réseaux neuronaux.
«Nous ne pouvons pas nous fier aux suggestions de l'IA. Dans 80 % des cas, elle se trompe. Nous ne regardons même pas ses propositions», a déclaré Janerke Kaidenova, une employée de 36 ans d'une entreprise kazakhe de modération de contenu.
Kevin passe du temps à corriger les erreurs en marquant manuellement des étiquettes ultra-précises pour tout ce qu'il voit. Ce travail ne fait qu'augmenter la charge de travail et prend du temps qui pourrait être consacré à des tâches plus urgentes.
Il est convaincu que ses corrections minutieuses apprennent en fait au système, et qu'en fin de compte, il sera remplacé, même si la direction ne le dit pas clairement.
En mai 2024, Reddit a annoncé un partenariat avec OpenAI, qui a fourni aux redditeurs et aux modérateurs de nouvelles fonctionnalités basées sur l'IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Les modérateurs de contenu ont signalé 80 % d'erreurs des systèmes d'IA.
L'intelligence artificielle complique plutôt qu'elle ne simplifie le travail des modérateurs de contenu. Elle ne peut pas reconnaître de manière fiable la cruauté et le mal, écrit Bloomberg en se référant à 13 filtres professionnels de matériaux en ligne.
Un des employés de TikTok sous le pseudonyme de Kevin a déclaré qu'on lui avait demandé il y a plus d'un an d'utiliser un programme d'IA dans son travail. Il a évalué le nombre d'erreurs à environ 70%. Par exemple, l'intelligence artificielle peut signaler un faible niveau de carburant sur le tableau de bord de la voiture dans la vidéo, alors qu'elle devrait analyser le compteur de vitesse affichant 200 km/h.
Kevin pense que, malgré les difficultés rencontrées, les employeurs continueront à remplacer les humains par des machines.
Des modérateurs professionnels ont confirmé l'affirmation : l'IA commence à être appliquée plus rapidement qu'elle n'apprend à filtrer efficacement le contenu malveillant.
Les experts craignent l'émergence d'un environnement Internet contrôlé par l'intelligence artificielle, où la haine, la propagande, la corruption des enfants et d'autres formes de menaces en ligne pourront se répandre librement.
«Si nous nous engageons dans la voie de l'intégration de l'IA pour réduire le nombre de spécialistes en sécurité, cela entraînera une diminution. Des êtres humains sont nécessaires», a déclaré Lloyd Richardson, directeur des technologies du Centre canadien de protection de l'enfance.
Le travail de modérateur de contenu cause des traumatismes émotionnels, et embaucher un nombre suffisant de personnes est une tâche complexe. Les utilisateurs de YouTube téléchargent plus de 20 millions de vidéos par jour. Les entreprises misent sur l'intelligence artificielle, mais celle-ci ne fait qu'entraver.
Parmi les 13 modérateurs interrogés par les journalistes de Bloomberg, 12 ont déclaré que leur travail s'était compliqué après l'intégration des réseaux neuronaux.
«Nous ne pouvons pas nous fier aux suggestions de l'IA. Dans 80 % des cas, elle se trompe. Nous ne regardons même pas ses propositions», a déclaré Janerke Kaidenova, une employée de 36 ans d'une entreprise kazakhe de modération de contenu.
Kevin passe du temps à corriger les erreurs en marquant manuellement des étiquettes ultra-précises pour tout ce qu'il voit. Ce travail ne fait qu'augmenter la charge de travail et prend du temps qui pourrait être consacré à des tâches plus urgentes.
Il est convaincu que ses corrections minutieuses apprennent en fait au système, et qu'en fin de compte, il sera remplacé, même si la direction ne le dit pas clairement.
En mai 2024, Reddit a annoncé un partenariat avec OpenAI, qui a fourni aux redditeurs et aux modérateurs de nouvelles fonctionnalités basées sur l'IA.