Wikipédia:Projetos/Avisos aos usuários/Testes
Esta página serve para centralizar as medidas na Wikipédia lusófona para melhorar a qualidade dos avisos nas páginas de discussão de usuários. Podem ser encontradas ligações para este projecto noutras Wikipédias no cross-wiki hub do Meta.
Âmbito
[editar código-fonte]O objectivo desta página é quantificar a eficácia de diferentes predefinições para páginas de discussão de usuários através de testes aleatórios. Isto não engloba a criação de novas categorias de avisos ou a sua organização de forma eficiente, mas sim a melhoria da qualidade dos nossos actuais métodos de comunicação.
Pretendemos implementar pequenas melhorias nas mensagens que enviamos aos editores, de forma a encorajar mais editores honestos e desencorajar vândalos evidentes, spammers e outros editores com má-vontade.
Participantes
[editar código-fonte]Assine neste espaço caso deseje ser notificado sobre actualizações dos testes.
- Vitor Mazuco Msg 23h25min de 13 de janeiro de 2012 (UTC)
- Chico (discussão) 09h19min de 17 de janeiro de 2012 (UTC)
- Rjclaudio msg 11h54min de 17 de janeiro de 2012 (UTC)
- Steven (WMF) (discussão) 00h25min de 14 de fevereiro de 2012 (UTC)
- Oona (WMF) (discussão) 14h17min de 10 de agosto de 2012 (UTC)
Tarefas
[editar código-fonte]Qualquer contribuição para simplificar e tornar os avisos mais acessíveis e amigáveis é bem-vinda. Mais concretamente, pode:
- inserir link Wikipedia:WikiProject user warnings/Testing/Draft space|Draft > Elaborar novas predefinições ou avaliar as predefinições actualmente em elaboração e sugerir melhorias no seu conteúdo ou estrutura. Procuramos reduzir o inserir link tamanho dos avisos, mas as predefinições devem ser na mesma compatíveis com as boas práticas de link design guidelines e link usage and layout
- inserir user warnings/test Sugerir que predefinições devem ser testadas em seguida e que mudanças devem ser feitas.
- Ajudar na análise das informações recolhidas. Estamos a usar vários métodos, tanto com estatísticas quantitativas como link para coding ciêcnias sociais
- Recrutar mais participantes.
Calendarização de testes
[editar código-fonte]As predefinições têm sido testadas nos seguintes locais.
- inserir lista de links (Huggle / Twinkle / Shared Ips etc)
Cada uma destas páginas possui listas e datas de todas as predefinições testadas, incluindo os resultados, caso estejam disponíveis. De seguida apresentam-se as tabelas de rastreio com datas de início e término. Para testes noutros projectos que não a Wikipédia Portuguesa, por favor veja a página central no Meta.
Testes completos
[editar código-fonte]Nome do teste | Sumário | Data de início | Data de término | Duração | Predefinições de rastreio | Dados | Resultados (link) |
---|---|---|---|---|---|---|---|
Huggle | {{Uw-vandal-rand1}} | 27-10-2011 | 28-11-2011 | — | {{Z1}}, {{Z2}}, {{z3}} | — | meta |
boas vindas | Boas vindas a usuários registrados | 01/02/2012 | 13/03/2012 | — | {{Z4}}, {{Z5}} | — | meta |
A decorrer
[editar código-fonte]Nome do teste | Sumário | Data de início | Data de término | Duração | Predefinições de rastreio | Dados | Resultados (link) |
---|---|---|---|---|---|---|---|
— | — | — | — | — | — | — | — |
Testes planeados
[editar código-fonte]Nome do teste | Sumário | Data de início | Data de término | Duração | Predefinições de rastreio | Dados | Resultados (link) |
---|---|---|---|---|---|---|---|
— | — | — | — | — | — | — | — |
Método de teste
[editar código-fonte]Apresentam-se aqui os requerimentos para conduzir testes A/B comparativos de qualquer predefinição para páginas de usuário. A realização de experiências aleatórias permite-nos obter informação de base acerca de que tipo de conteúdos são mais eficazes para alcançar os objectivos propostos. Aquilo que vai necessitar é...
- Um elemento de aleatriedade que forneça todas as predefinições ao seu teste. Esta é a predefinição que deve ser incluída na configuração de qualquer bot ou ferramenta que esteja a usar para executar os testes, e que forneça de forma aleatória uma predefinição através de uma funçao sintática.
- Um controle, normalmente a predefinição padrão existente. Repare que deve replicar o padrão numa nova predefinição em vez de usar a actual página da predefinição, de modo a evitar a inclusão de réplicas do padrão no seu teste.
- Uma nova versão ou versões das predefinições que queira testar. Tente usar um nome canónico que corresponda ao tipo, propósito e nível do aviso no qual esteja interessado.
- Uma predefinição de rastreio Z-número para todas as predefinições a serem testadas. Se não incluir um Z-número próprio em cada predefinição, irá perder o rasto dos eventos testados assim que forem substituídos.
Nalguns casos, como em bots nos quais todas as contribuições têm origem na mesma conta, este método pode ser bastante simplificado.
Análise
[editar código-fonte]Até agora, temos usado um método misto tanto de mediação quantitativa como de avaliação qualitativa. Caso queira ajudar a classificar e analisar os testes, por favor inscreva-se na secção acima. Os resultados dos testes de todos os projectos estão disponíveis aqui.