Les modérateurs bénévoles de Stack Overflow suppriment les outils en raison d'une nouvelle politique secrète qui empêche la suppression de l'IA
MaisonMaison > Blog > Les modérateurs bénévoles de Stack Overflow suppriment les outils en raison d'une nouvelle politique secrète qui empêche la suppression de l'IA

Les modérateurs bénévoles de Stack Overflow suppriment les outils en raison d'une nouvelle politique secrète qui empêche la suppression de l'IA

Mar 30, 2023

Un certain nombre de modérateurs de Stack Overflow ont déclaré une "grève générale de modération" pour protester contre l'instruction de ne pas supprimer le contenu généré par l'IA "en dehors de circonstances extrêmement étroites".

Les deux problèmes clés sont d'abord que les modérateurs se sentent incapables de remplir efficacement leur rôle de contrôle de la qualité en raison de la nouvelle politique ; et deuxièmement, que la politique leur a été imposée sans consultation appropriée.

"Les modérateurs ne sont plus autorisés à supprimer les réponses générées par l'IA sur la base du fait qu'elles sont générées par l'IA, en dehors de circonstances extrêmement étroites. Cela permet effectivement à presque toutes les réponses générées par l'IA d'être publiées librement, quel que soit le consensus communautaire établi sur de telles contenu », ont déclaré les mods frappants dans une lettre ouverte.

"Nous croyons profondément en la mission principale du réseau Stack Exchange : fournir un référentiel d'informations de haute qualité sous forme de questions et de réponses, et les actions récentes prises par Stack Overflow, Inc. sont directement préjudiciables à cet objectif", ils ont ajouté.

Le site fonctionne toujours mais le volume de spam et de contenu non signalé est susceptible d'augmenter, d'autant plus qu'un outil appelé SmokeDetector, développé par un réseau de bénévoles appelé Charcoal pour StackOverflow pour détecter le spam, a également cessé de fonctionner. "Attention : Charcoal participe à la grève à l'échelle du réseau, il restera donc fermé jusqu'à ce que cette politique d'IA soit abandonnée", a déclaré un avis sur un fil de discussion du site.

DevClass s'est entretenu avec la modératrice norvégienne Zoe, qui fait partie des signataires. "Il y a jusqu'à présent 15/24 mods actifs sur SO (si j'ai bien compté) qui sont officiellement en grève, et les autres n'ont tout simplement aucune chance de suivre les volumes de drapeaux", nous a-t-elle dit.

Le contexte est que StackOverflow semble avoir du mal à comprendre l'impact des outils d'IA comme GitHub Copilot et ChatGPT sur son site de questions et réponses. Le trafic a chuté. La réaction initiale de l'entreprise a été d'interdire l'utilisation de ChatGPT pour publier des réponses Stack Overflow via une "politique temporaire", à l'approbation de la communauté, mais un message officiel du personnel indique également que "nous n'avons décidé d'aucune politique générale à l'échelle du réseau concernant interdire ChatGPT, ou tout autre contenu généré par l'IA, est nécessaire ou utile pour le moment." Il existe une distinction entre Stack Overflow, le site du développeur, et Stack Exchange, une famille de sites couvrant un large éventail de sujets différents, bien que Stack Overflow soit de loin le plus fréquenté.

La semaine dernière, le PDG Prashanth Chandrasekar a publié un avis positif sur le rôle de l'IA dans Stack Overflow et que "la montée en puissance de GenAI est une grande opportunité pour Stack. Environ 10 % de notre entreprise travaille sur des fonctionnalités et des applications tirant parti de GenAI qui ont le potentiel d'augmenter l'engagement ." Chandrasekar a écrit qu'il avait "l'IA et la communauté au centre" ; mais les actions des modérateurs suggèrent que l'aspect communautaire est actuellement mis en doute.

Le déclencheur de la crise actuelle a été une instruction lundi la semaine dernière (un jour férié) aux modérateurs de Stack Overflow dans un forum officiel mais privé, "Les modérateurs ont été informés, via des messages de discussion épinglés dans diverses salles de modération (pas une méthode normale), de consultez un message dans l'équipe des modérateurs qui demandait à tous les modérateurs de cesser d'utiliser des détecteurs d'IA (comme indiqué ci-dessus) pour prendre des mesures de modération ", a déclaré un message. Les détails de l'instruction ne sont pas publics. Le vice-président de la communauté, Philippe Beaudette, a déclaré que "le contenu généré par l'IA n'est pas correctement identifié sur le réseau", que "le potentiel de faux positifs est très élevé" et "des preuves internes suggèrent fortement que l'application excessive de suspensions pour le contenu généré par l'IA peut refuser un grand nombre de contributeurs légitimes au site." Il a déclaré que les modérateurs avaient été invités à "appliquer une norme de preuve très stricte pour déterminer si un message est rédigé par l'IA lorsqu'ils décident de suspendre un utilisateur". Cependant, les modérateurs affirment qu'une description de la politique publiée par Beaudette « diffère grandement des directives de Teams… que nous ne sommes pas autorisés à partager publiquement ».

Zoe nous a dit "la version publique passe sous silence la partie où les mods ont été invités à arrêter de suspendre le contenu GPT suspecté, et divers autres détails". Elle a également déclaré que le manque de fiabilité des détecteurs automatiques d'IA est bien connu et accepté, mais que "la plupart de nos systèmes de détection ne reposent pas sur des détecteurs d'IA, précisément parce qu'ils ne sont pas fiables". Elle nous a dit que "le passage de" les détecteurs GPT ont un biais "à" une quantité importante de suspensions est incorrecte, nous interdisons donc effectivement tous les moyens de détecter le contenu de l'IA ", tout en ne montrant que des preuves du biais du détecteur et non biais de suspension/taux de faux positifs, a été fortement contestée."

En pratique, a-t-elle expliqué, l'application de la politique ChatGPT a été guidée par une combinaison de modèles de comportement des utilisateurs combinés à d'autres techniques. "Dans un grand nombre de discussions approfondies avec la société, nous n'avons pu obtenir aucune donnée de leur part indiquant que les taux de faux positifs des détecteurs ont eu un impact sur les suspensions", a-t-elle déclaré.

Les modérateurs sont des bénévoles et se préoccupent de la qualité du contenu plutôt que du niveau de trafic sur le site car "le trafic est généralement quelque chose qui est considéré comme le problème de l'entreprise", a déclaré Zoe.

La société prévoyait un deuxième changement de politique qui n'est pas public, mais qui, selon les modérateurs, "a le potentiel de faciliter des niveaux d'abus sans précédent". Ce deuxième changement (note de bas de page 3) a été "retardé indéfiniment", peut-être à la suite d'un refus du modérateur.

Le problème est complexe, mais il convient de noter que la politique interdisant ChatGPT a été bien votée par la communauté (+3677 au moment de la rédaction), ce qui suggère que les membres les plus actifs de Stack Overflow se méfient des réponses générées par l'IA.

Dans une déclaration envoyée à Dev Class, Beaudette de Stack Overflow nous a dit :

"Un petit nombre de modérateurs (11 %) sur le réseau Stack Overflow ont cessé de s'engager dans plusieurs activités, y compris la modération de contenu. La principale raison de cette action est l'insatisfaction quant à notre position sur les outils de détection concernant le contenu généré par l'IA.

"Stack Overflow a effectué une analyse et les outils de détection ChatGPT que les modérateurs utilisaient auparavant ont un taux alarmant de faux positifs. L'utilisation de ces outils est corrélée à une augmentation spectaculaire des suspensions d'utilisateurs avec peu ou pas de contributions de contenu antérieures ; les personnes ayant des questions originales et réponses ont été sommairement suspendus de la participation sur la plateforme.Ces suspensions inutiles et leur impact démesuré sur les nouveaux utilisateurs vont à l'encontre de notre mission et ont un impact négatif sur notre communauté.

"Nous maintenons notre décision d'exiger que les modérateurs cessent d'utiliser les outils utilisés précédemment. Nous continuerons à rechercher des alternatives et nous nous engageons à tester rapidement ces outils.

"Nos modérateurs ont servi cette communauté pendant de nombreuses années, et nous apprécions leurs décennies de service collectif. Nous sommes convaincus que nous trouverons une voie à suivre. Nous regrettons que les actions aient progressé jusqu'à présent, et l'équipe de gestion de la communauté évalue la situation actuelle. situation alors que nous travaillons dur pour stabiliser les choses à court terme », a-t-il ajouté.