Dans un article récent sur le site Web OpenAI, la société note que GPT-4 est utilisé pour l’élaboration de la politique de contenu et les décisions de modération de contenu, permettant une évaluation plus cohérente, une boucle de rétroaction plus rapide pour améliorer la politique et moins d’implication des modérateurs humains. Mais cela améliorera-t-il Internet ?
C’est en mai de cette année que nous avons fait connaître le rapport inquiétant d’un ancien employé de Meta qui avait pour mission de regarder des vidéos publiées sur Facebook afin de modérer si elles pouvaient ou non être publiées sur le réseau.
Les morts, les crimes qu’il a vus, lui ont enlevé son humanité, l’ont rendu malade à cause de ce qu’il a été forcé de regarder.
L’Intelligence Artificielle générative pourrait-elle être la solution ? Apparemment oui. En plus d’accélérer le processus d’analyse, vous pouvez minimiser l’exposition à ce type de contenu pour les modérateurs humains.
Actuellement, la modération de contenu joue un rôle crucial dans le maintien de l’intégrité des plateformes numériques. Un système de modération de contenu utilisant GPT-4 entraîne une itération beaucoup plus rapide des changements de politique, réduisant le cycle de mois à heures.
GPT-4 est également capable d’interpréter les règles et les nuances d’une longue documentation sur les politiques de contenu et de s’adapter instantanément aux mises à jour des politiques, ce qui se traduit par une évaluation plus cohérente.
Mettre en œuvre GPT-4 sur tout service nécessitant une modération
OpenAI dit croire que GPT-4 avec cet objectif de modération offre une vision plus positive de l’avenir des plateformes numériques, où l’IA peut aider à modérer le trafic en ligne, conformément à la politique spécifique à la plateforme et à alléger la charge mentale d’un grand nombre d’humains. modérateurs.
Toute personne ayant accès à l’API OpenAI peut mettre en œuvre cette approche pour créer son propre système de modération assistée par l’IA.
Mais cela améliorera-t-il Internet ?
La modération de contenu nécessite des efforts méticuleux, de la sensibilité, une compréhension approfondie du contexte, ainsi qu’une adaptation rapide aux nouveaux cas d’utilisation, ce qui la rend chronophage et difficile.
Traditionnellement, la charge de cette tâche incombait aux modérateurs humains qui passaient au crible de grandes quantités de contenu pour filtrer les contenus toxiques et nocifs, soutenus par des modèles d’apprentissage automatique plus petits.
En plus d’être lent, comme nous l’avons déjà mentionné, il peut être traumatisant pour ceux qui exécutent cette tâche.
Cependant, ce type d’évaluation implique un certain jugement et ces modèles sont vulnérables aux biais indésirables qui peuvent avoir été introduits dans le modèle au cours de l’apprentissage. Comme pour toute application d’IA, les résultats et les résultats devront être soigneusement surveillés, validés et affinés, en gardant les humains au courant.
En réduisant l’implication humaine dans certaines parties du processus de modération qui peuvent être gérées par des modèles de langage, les ressources humaines peuvent se concentrer davantage sur le traitement des cas extrêmes complexes.
Envie de vous détendre un peu ? Voici un reportage très intéressant sur l’intelligence artificielle :
