Aide:Nouveaux filtres pour la relecture des modifications/filtres de qualité et d'intention

This page is a translated version of the page Help:New filters for edit review/Quality and Intent Filters and the translation is 100% complete.
PD Note : si vous modifiez cette page, vous acceptez de placer votre contribution sous licence CC0. Plus d’informations sont disponibles sur le projet Aide dans le domaine public. PD

Les nouveaux filtres pour la révision des modifications apportent deux groupes de filtres — la qualité des contributions et les intentions utilisateurs — qui travaillent différemment des autres filtres de révision des modifications. Les filtres de ces groupes offrent des prédictions à caractère de probabilité sur respectivement, le fait que les modifications peuvent ou pas contenir des problèmes, et si les utilisateurs qui les font sont de bonne foi ou pas.

Additionally, the language-agnostic revert risk model, enabled in 2024, provides a prediction about how likely an edit is to require reverting.

Connaître un peu la manière dont ces outils uniques travaillent vous aidera à les utiliser plus efficacement.

Ces filtres ne sont disponibles que sur certains wikis.

Basé sur l’apprentissage-machine

Les prédictions qui rendent possibles les filtres de qualité et d'intentions sont calculés par ORES, qui est un programme-machine d'apprentissage formé sur un grand nombre de contributions précédemment réalisées par des éditeurs humains. L'apprentissage par une machine est une technologie puissante qui lui permet de reproduire certains aspects limités de nos modes de raisonnement humains.

Les filtres de qualité et d'intentions ne sont disponibles que sur les wikis qui prennent en charge les modèles ORES «  préjudiciable » (damaging) et «  bonne foi » (good faith). Le modèle ORES «  préjudiciable » booste les prédictions concernant la qualité, tandis que le modèle «  bonne foi » booste les intentions.

Si vous activez ORES, vous devez avoir des volontaires qui enregistrent des modifications sur les wikis concernés. Cette page en explique le processus et la manière de commencer sur votre wiki.

The language-agnostic revert risk model supports all language Wikipedias and does not require manual training by volunteers.

Choisir le bon outil

En regardant les filtres sur la qualité, les intentions et les risques d'annulation, vous pourrez remarquer quelque chose de différent à leur sujet. À la différence des filtres des autres groupes, les différentes options ne ciblent pas différentes propriétés d'édition. A la place, ils ciblent la même propriété tout en offrant différents niveaux de précision.

Pourquoi devrait-on choisir d'utiliser un outil moins adapté ? Parce qu'une telle acuité peut avoir un coût.

Augmenter la probabilité de prédiction (précision accrue)

 
Ce diagramme conceptuel illustre comment les filtres de qualité dépendent les une des autres sur plusieurs wikis (les performances varient). Comme vous pouvez le voir le filtre Ont très vraisemblablement des problèmes capture les résultats composés presque entièrement de problèmes d'édition (grande précision). Mais il ne capture qu'une petite partie de tous les problèmes d'édition (faible rappel). Remarquez comment chaque élément de Ont très vraisemblablement des problèmes (et Ont probablement des problèmes) est aussi inclus dans le Peuvent avoir des problèmes plus large, ce qui fournit un rappel fort mais une précision plus faible (parce qu'il retourne un grand pourcentage de modifications qui n'ont pas de problème). Vous pouvez être surpris de voir que Peuvent avoir des problèmes recouvre Très vraisemblablement bonnes. Les deux filtres recouvrent la zone intermédiaire entre les modifications sans problèmes et celles avec problèmes afin de détecter davantage de cibles (rappel élargi). Pour des raisons de place, le diagramme n'est pas exactement à l'échelle.

Les filtres les plus appropriés du menu retournent un pourcentage plus élevé de versions correctes des prédictions incorrectes et en conséquence peu de faux positifs (dans le lingo de la reconnaissance de modèles, ces filtres ont une précision plus élevée). Ils atteignent cette précision en étant plus étroits, plus restrictifs. Lors de la recherche, ils imposent une probabilité plus haute. La contrepartie de cela est que le nombre de cibles trouvées représente un pourcentage plus faible.

Exemple : Le filtre Ont très vraisemblablement des problèmes est le plus adéquat pour le filtrage de la qualité. Les performances varient selon les wikis, mais sur la Wikipedia anglophone, ses prédictions sont bonnes à plus de 90% des cas. Le compromis est que ce filtre ne trouve qu'environ 10% des modifications à problèmes dans un ensemble donné, parce qu'il survole les problèmes plus difficiles à détecter. Les problèmes trouvés par ce filtre couvrent souvent le vandalisme évident.

Trouver davantage de cibles (rappel plus important)

Si votre priorité est de trouver absolument toutes ou la plupart de vos cibles, alors il vous faudra un filtre plus lâche, moins sélectif. Ceux-ci ramènent plus de résultats qu'ils n'en faut car ils abaissent la probabilité. Le compromis ici est qu'ils retournent davantage de faux positifs. En termes techniques, on dira que ces filtres ont un «  rappel » (recall) plus élevé; celui-ci est défini comme le pourcentage entre ce que le filtre a effectivement trouvé et ce que vous cherchez.

Exemple : le filtre Peuvent avoir des problèmes est le filtre le plus large sur la qualité. Les performances varient selon les wikis, mais sur la Wikipedia anglophone, il détecte environ 82% de problèmes de modification. Le compromis est que ce filtre est vrai seulement à 15% du temps.
Si 15% ne semble pas très encourageant, remarquez que les modifications problématiques apparaissent actuellement avec un taux de moins de 5 pour 100 (soit 5%). Donc 15% c'est multiplier aléatoirement par trois. Et bien sûr, les patrouilleurs n'y vont pas de manière aléatoire; ils sont entraînés à utiliser des outils variés et indices pour augmenter leur taux de détection. Combiné à ces techniques, Peuvent avoir des problèmes fournit un avantage significatif.

(Comme indiqué ci-dessus, ORES fonctionne différemment selon les wikis, ce qui signifie que certains sont moins soumis aux compromis que nous venons de discuter. Sur la Wikipedia polonaise par exemple, le filtre Ont probablement des problèmes capture 91% des modifications problèmatiques, contre 34% avec le filtre correspondant sur la Wikipedia anglaise. À cause de cela, la Wikipedia polonaise n'a pas besoin (ou n'a pas) de filtre Peuvent avoir des problèmes plus large).

Le meilleur des deux mondes (avec surbrillance)

 
Vous pouvez tirer le meilleur parti des deux mondes en filtrant largement et en mettant en surbrillance à l'aide de fonctions plus adaptées. Ici l'utilisateur analyse un grand réseau pour détecter les dégradations en contrôlant à l'aide d'un filtre sur la qualité Peuvent avoir des problèmes, le plus large possible. Au même moment, il identifie les problèmes les plus mauvais ou les plus évidents, en surlignant (et non pas en filtrant) les Ont probablement des problèmes, Ont très vraisemblablement des problèmes et Probablement de mauvaise foi.

Le système de filtrage est conçu pour permettre aux utilisateurs de contourner les compromis décrits ci-dessus. Vous pouvez faire cela en filtrant largement tout en surlignant les informations les plus importantes.

Pour utiliser cette stratégie, il est utile de comprendre que les filtres plus précis tels que Ont très vraisemblablement des problèmes, renvoient des résultats qui sont un "sous-ensemble" des résultats fournis par les filtres moins précis tels que Peuvent avoir des problèmes. En d'autres termes, tous les résultats « Fortement susceptibles » sont aussi inclus dans le plus large Peuvent avoir des problèmes. (Le diagramme au-dessus illustre ce concept.)

Exemple : trouver presque toutes les dégradations tout en mettant en évidence les pires/celles qui y ressemblent :
  1. en chargeant la configuration par défaut,
  2. cochez le filtre de qualité le plus large, Peuvent avoir des problèmes.
  3. au même instant, surlignez en jaune Ont probablement des problèmes (sans cocher les cases du filtre), et en rouge Ont très vraisemblablement des problèmes.
Parce que vous utilisez le filtre de qualité le plus large, vos résultats comprennent la plupart des problèmes d'édition (rappel fort). Mais en sélectionnant visuellement les bandes jaunes, rouges, oranges (c'est à dire le mélange des rouges et des jaunes), vous serez à même de repérer facilement les modifications problématiques les plus vraies et de les traiter en premier (voyez l'aide sur l'utilisation de la surbrillance sans le filtrage).

Trouver le bien (et le récompenser)

 
Ce relecteur veut remercier les nouveaux utilisateurs qui font des contributions positives. Le filtre Très vraisemblablement bonnes isole les modifications sans problèmes avec une précision de 99% . En filtrant sur Nouveaux arrivants et Apprentis vous limitez la recherche à ces deux niveaux d'expérience, en même temps que vous appliquez une surbrillance en vert aux Nouveaux arrivants (seulement) ce qui permet au relecteur de distinguer les deux niveaux au premier coup d'œil.

La bonne foi est facile à trouver, littéralement ! Ainsi le sont les bonnes contributions.

Le filtre Très vraisemblablement de bonne foi et le filtre Très vraisemblablement bonnes (sur la qualité) vous donnent de nouvelles façons de trouver et d'encourager les utilisateurs qui travaillent à l'amélioration des wikis. Par exemple, vous pouvez utiliser le filtre Très vraisemblablement bonnes combiné avec le filtre Nouveaux arrivants pour remercier les nouveaux utilisateurs de leur bon travail.

Exemple : remercier les nouveaux utilisateurs de bonne foi
  1. effacez les filtres en cliquant sur la poubelle. Puis choisissez les filtres Modifications de page et Humain (non robot) .
  2. cochez le filtre de qualité Très vraisemblablement bonnes.
  3. cochez les filtres concernant l'enregistrement des utilisateurs et l'expérience Nouveaux arrivants et Apprentis (ceci a pour effet masqué, de limiter vos résultats aux utilisateurs enregistrés).
  4. surlignez en vert le filtre Nouveaux arrivants .
Toutes les modifications dans vos résultats seront les bonnes contributions des nouveaux arrivés (Newcomers - utilisateurs avec moins de 10 contributions et 4 jours d'activité) et celles des apprentis (Learners - utilisateurs de moins de 500 contributions et 30 jours d'activité). La surbrillance en vert vous permet facilement de distinguer les deux catégories.

Le bien est partout !

Les bons filtres mentionnés ci-dessus sont à la fois précis et larges, ce qui signifie qu'ils ne sont pas sujets aux compromis décrits dans la section précédente (ils combinent la précision haute avec un grand nombre de rappels). Ces filtres sont bons 99% du temps et détectent plus de 90% de leurs cibles. Comment le font-ils ?

La réponse heureuse est que les bons filtres fonctionnent si bien car le bien est plus répandu que le mal. C'est à dire que, les bonnes contributions et la bonne foi sont beaucoup, beaucoup plus nombreuses que leur contraire — et c'est pourquoi on les repère plus facilement. Cela peut surprendre certains relecteurs d’entendre ça, mais sur la Wikipedia anglophone par exemple, une modification sur 20 pose problème, et seulement la moitié environ de celles-ci sont du vandalisme intentionnel.[1]

Liste des filtres

Sur les wikis où sont déployés les filtres de qualité et d'intention, certains filtres peuvent manquer à cause (grâce à) d'une meilleure qualité de prédiction. Plus ORES est performant sur un wiki et moins le nombre de niveaux de filtres est nécessaire.

Prédictions de qualité de contribution

Très vraisemblablement bonnes
Très précis pour trouver presque toutes les modifications sans problèmes.
Peuvent avoir des problèmes
Trouve la plupart des modifications incorrectes ou dommageables, mais avec une faible exactitude.
Ont probablement des problèmes
Avec une haute précision, trouve la plupart des modifications problématiques.
Avec une précision moyenne, trouve une part intermédiaire des modifications problématiques.
Ont très vraisemblablement des problèmes
Très précis pour trouver les modifications incorrectes ou dommageables les plus évidentes.

Prédictions d’intention de l’utilisateur

Très vraisemblablement de bonne foi
Très précis pour trouver presque toutes les modifications effectuées de bonne foi.
Peut-être de mauvaise foi
Trouve la plupart des modifications de mauvaise foi, mais avec une plus faible précision.
Probablement de mauvaise foi
Avec une précision moyenne, trouve une portion intermédiaire de modifications effectuées de mauvaise foi.

Revert risk

Filter levels TBD. Uses the Language-agnostic revert risk model.

Notes

  1. Ces figures proviennent de la recherche à propos de l'apprentissage des modèles ORES « préjudiciable » et « de bonne foi » de la Wikipedia anglophone. C'est à dire, lorsque les bénévoles ont réalisé un grand nombre de modifications de test réparties aléatoirement, c'est ce que l'on a obtenu.