Ajuda:Novos filtros para revisão de edições/Filtros de qualidade e de intenção

This page is a translated version of the page Help:New filters for edit review/Quality and Intent Filters and the translation is 94% complete.
Outdated translations are marked like this.
PD Nota: Ao editar esta página, você concorda em publicar a sua contribuição no âmbito da licença CC0. Veja as páginas de ajuda do domínio público para mais informações. PD

Os novos filtros para a revisão de edições introduzem dois novos grupos de filtros – qualidade da contribuição e intenção do usuário – que funcionam de maneira diferente dos outros filtros de revisão de edições. Nesses grupos, os filtros oferecem previsões sobre possíveis edições problemáticas e se o editor agiu em boa-fé ou não, respectivamente. Saiba um pouco sobre essas ferramentas e você poderá usá-las mais efetivamente.

Additionally, the language-agnostic revert risk model, enabled in 2024, provides a prediction about how likely an edit is to require reverting.

Knowing a bit about how these unique tools work will help you use them more effectively.

Estes filtros estão disponíveis somente em certas wikis.

Baseado em aprendizado de máquina

As previsões que possibilitam os filtros de qualidade e de intenção são calculadas pelo ORES, um programa de aprendizado de máquina treinado num vasto conjunto de edições anteriormente classificadas por editores humanos. O aprendizado de máquina é uma tecnologia poderosa, que permite que máquinas repliquem alguns aspectos limitados a julgamento humano.

Os filtros de qualidade e de intenção estão disponíveis apenas nas wikis onde os “modelos” de “danos” e “boa-fé” são compatíveis. O modelo de “danos” do ORES direciona-se às previsões de qualidade, enquanto seu modelo de “boa-fé” direciona-se às de intenção.

Para ativar o ORES, é necessário que voluntários classifiquem edições na wiki. Esta página explica o processo e como você pode ativá-lo na sua wiki.

The language-agnostic revert risk model supports all language Wikipedias and does not require manual training by volunteers.

Escolhendo a ferramenta certa

Vendo os filtros de qualidade e de intenção, você pode notar algo diferente sobre eles. Diferente dos filtros de outros grupos, as várias opções não focam em diferentes propriedades de edição. Ao invés, muitas delas focam na mesma propriedade, mas oferecem diferentes níveis de precisão.

Por que alguém escolheria usar uma ferramenta que é menos precisa? Porque tal precisão pode ter um custo.

Aumentar a probabilidade de previsão (maior “precisão”)

 
Este diagrama conceitual ilustra como os filtros de qualidade relacionam uns com os outros em várias wikis (a performance varia). Como pode-se ver, o filtro Muito provavelmente têm problemas captura resultados compostos quase em sua totalidade de edições problemáticas (alta precisão), mas captura apenas uma pequena porção de todas as edições problemáticas (baixa revocação). Perceba como tudo em Muito provavelmente têm problemas (e Provavelmente têm problemas) também está incluído no amplo Podem ter problemas, que fornece alta revocação mas pouca precisão (por retornar uma alta porcentagem de edições não problemáticas). Você pode se surpreender pelo fato do Podem ter problemas ultrapassar o Muito provavelmente boas. Ambos os filtros cobrem a zona indeterminada entre edições problemáticas e não problemáticas para capturar mais alvos (revocação mais ampla). Por questões de espaço, o diagrama não reflete escala com precisão.

Os filtros mais precisos no menu retornam uma porcentagem maior de previsões corretas vs. incorretas e, consequentemente, menos falsos positivos. (Na linguagem de reconhecimento de padrões, esses filtros possuem maior “precisão”.) Eles alcançam tal precisão por serem mais restritos. Ao pesquisar, eles definem uma barra de probabilidade mais alta. O lado ruim disso é que pode-se retornar uma porcentagem menor de seus alvos.

Exemplo: O filtro Muito provavelmente têm problemas é o mais preciso dos filtros de qualidade. A performance varia de wiki para wiki, mas na Wikipédia inglesa, suas precisões estão certas 90% do tempo. Em troca, o filtro encontra apenas cerca de 10% de todas as edições problemáticas em dado conjunto – por passar por problemas mais difíceis de serem detectados. Os problemas encontrados por esse filtro geralmente incluirão vandalismo.

Encontrar mais do seu alvo (maior “revocação”)

Se a sua prioridade for encontrar tudo ou a maior parte do seu alvo, você precisará de um filtro mais amplo e menos preciso. Estes encontrarão mais do que você está procurando, definindo a barra de probabilidade mais para baixo. Em troca, serão retornados mais falsos positivos. (Na linguagem técnica, esses filtros possuem maior “revocação”, definida como a porcentagem do que sua consulta encontra com êxito.)

Exemplo: O filtro Podem ter problemas é o filtro de qualidade mais amplo. Sua performance varia de wiki para wiki, mas na Wikipédia inglesa ele captura cerca de 82% das edições problemáticas. No lado negativo, este filtro está certo apenas cerca de 15% das vezes.
Se 15% não parecer muito útil, considere que edições problemáticas ocorrem numa taxa menor que 5 em 100 – 5%. 15% é três vezes maior que o aleatório. E, claro, patrulhadores não tiram amostras aleatórias; eles possuem habilidades em usar várias ferramentas e pistas para aumentar suas taxas de acerto. Combinado com essas técnicas, Podem ter problemas fornece uma vantagem significativa.

(Como mencionado acima, o ORES funciona de forma diferente em wikis diferentes, o que significa que alguns estão menos sujeitos às compensações que acabamos de discutir do que outras. Na Wikipedia polonesa, por exemplo, o filtro Provavelmente têm problemas captura 91% das edições do problema, em comparação com 34% com o filtro correspondente na Wikipédia em inglês. Por causa disso, a Wikipédia polonesa não precisa - ou tem - um filtro maior que Podem ter problemas).

Obter o melhor dos dois mundos (com destaques)

 
É possível obter o melhor dos dois mundos filtrando e destacando, com o uso de funções mais precisas. Aqui, o usuário cria uma ampla rede de danos, marcando o filtro de qualidade Podem ter problemas. Ao mesmo tempo, ele identifica os piores ou os mais óbvios problemas destacando (mas não filtrando) Provavelmente têm problemas, Muito provavelmente têm problemas e Provavelmente de má fé.

O sistema de filtros foi designado para contornar os lados negativos descritos acima. É possível realizar isso filtrando e destacando as informações que mais importarem.

Para usar essa estratégia, vale entender que os filtros mais precisos, como o Muito provavelmente têm problemas, retornam resultados que são um subconjunto dos filtros menos precisos, como o Podem ter problemas. Em outras palavras, todos os resultados “Muito provavelmente” também estão incluídos no conjunto Podem ter problemas. (O diagrama acima ilustra esse conceito.)

Exemplo: encontrar quase todas as prejudiciais, enfatizando as mais/menos prováveis:
  1. Com as configurações padrão,
  2. Marque o filtro Podem ter problemas.
  3. No mesmo tempo, destaque – sem marcar – Provavelmente têm problemasde amarelo e Muito provavelmente têm problemas de vermelho.
Porque você está usando o filtro de qualidade mais amplo, seus resultados incluirão a maioria das edições problemáticas ("recall" elevado). Mas, ao pesquisar as bandas amarelas, vermelhas e laranja (ou seja, blended red + yellow), você poderá facilmente escolher as edições de problemas mais prováveis e abordá-las primeiro. (Encontre ajuda em usando destaques sem filtragem.)

Encontrar as boas (e recompensá-las)

 
Este revisor quer agradecer os novos usuários que estejam fazendo contribuições positivas. O filtro Muito provavelmente boas isola edições livres de problemas com 99% de precisão. Filtrar por Novatos e Aprendizes limita a busca desses dois níveis de experiência, enquanto aplicar um destaque verde a (apenas) Novatos permite que o revisor distingua entre os dois níveis.

A boa fé é fácil de encontrar, literalmente! Assim são com boas edições.

Os filtros Muito provavelmente de boa fé e Muito provavelmente boas oferecem novas maneiras de encontrar e incentivar os usuários que estão trabalhando para melhorar as wikis. Por exemplo, você pode usar o filtro Muito provavelmente boas em combinação com o filtro Novatos para agradecer aos novos usuários por seu bom trabalho.

Exemplo: Agradecendo novos usuários de boa-fé
  1. Limpe os filtros clicando na lata de lixo. Em seguida, selecione os filtros Edições em páginas e Humano (não robô).
  2. Marque o filtro de qualidade Muito provavelmente boas.
  3. Marque os filtros de registro de usuário e de experiência Novatos e Aprendizes (isso tem o efeito oculto de limitar seus resultados aos usuários registrados).
  4. Destaque o filtro Novatos, em verde.
Todas as edições em seus resultados serão boas edições dos Recém-chegados (usuários com menos de 10 edições e 4 dias de atividade) e Aprendizes (usuários com menos de 500 edições e 30 dias de atividade). O destaque verde permite distinguir facilmente entre os dois.

O bem está em toda parte!

Os “filtros do bem” mencionados acima são precisos e amplos, o que significa que eles não estão sujeitos às compensações descritas na seção anterior (eles combinam alta “precisão” com alta “revocação”). Esses filtros estão corretos cerca de 99% do tempo e encontram bem mais de 90% de seus objetivos. Como eles podem fazer isso?

A resposta feliz é que os “filtros do bem” funcionam tão bem porque o bem é mais comum do que o mau. Ou seja, boas edições e boa-fé são muito, muito mais abundantes que os opostos – e, portanto, mais fáceis de encontrar. Isso pode surpreender alguns patrulheiros, mas na Wikipédia inglesa, por exemplo, uma em cada 20 edições tem problema, e apenas cerca de metade dessas edições problemáticas são vandalismo intencional.[1]

Lista de filtros

Nos wikis em que os Filtros de Qualidade e Intenção são implantados, alguns filtros podem estar faltando devido a uma melhor qualidade de previsões. O melhor ORES executa em um wiki, menos níveis de filtro são necessários.

Previsões de qualidade de contribuição

Muito provavelmente boas
Altamente preciso em encontrar quase todas as edições sem problemas.
Podem ter problemas
Encontra as edições mais erradas ou prejudiciais, mas com menor precisão.
Provavelmente têm problemas
Com precisão alta, encontra a maioria das edições problemáticas.
Com precisão média, encontra uma fração intermediária de edições de problemas.
Muito provavelmente têm problemas
Muito exato em encontrar as edições mais obviamente falhas ou prejudiciais.

Previsões da intenção do usuário

Muito provavelmente de boa fé
Altamente precisa em encontrar quase todas as edições de boa fé.
Podem ser de má fé
Encontra a maioria das edições de má fé, mas com uma menor precisão.
Provavelmente de má fé
Com precisão média, encontra uma fração intermediária de edições de má fé.

Revert risk

Filter levels TBD. Uses the Language-agnostic revert risk model.


Notas

  1. Esses números provêm de pesquisas que entraram em treinamento para os modelos do ORES “prejudiciais” e “boa fé” na Wikipédia inglesa. Ou seja, quando os voluntários pontuaram um grande conjunto de edições aleatoriamente esboçadas, isso é o que eles encontraram.