http://gizmodo.uol.com.br/robos-wikipedia-guerra/
Os robôs de edição da Wikipédia estão em guerra entre si há anos
*Por: George Dvorsky <http://gizmodo.uol.com.br/author/george-dvorsky/>*
24 de fevereiro de 2017 às 18:47
[image: wiki]
As guerras de revisão na Wikipédia entre editores humanos é uma ocorrência
bastante comum, mas uma nova pesquisa do Reino Unido mostra que batalhas
online semelhantes estão sendo travadas entre os robôs do software do site.
• Como a Wikipédia se tornou uma comunidade mais fechada, e como resolver
isto <http://gizmodo.uol.com.br/estudo-comunidade-wikipedia/>
• Pesquisadores de robôs descobrem que copiar a Mãe Natureza nem sempre é o
melhor caminho
<http://gizmodo.uol.com.br/pesquisadores-robos-velocidade-insetos/>
Conforme revela um novo estudo
<http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0171774>
publicado no *PLOS ONE*, os robôs da Wikipédia nem sempre se dão bem,
frequentemente desfazendo as edições uns dos outros. Esses algoritmos
online, cada um equipado com suas próprias instruções e objetivos, travam
“lutas” estéreis sobre conteúdo que podem persistir por anos. A nova
pesquisa mostra como robôs relativamente “estúpidos” podem produzir
interações e comportamentos complexos e como os desenvolvedores precisam
estar sobre o controle de suas criações digitais. Isso tem implicações não
apenas na qualidade das páginas da Wikipédia, mas também no desenvolvimento
da inteligência artificial em geral — particularmente em qualquer agente
autônomo à solta na rede.
Atualmente, existem 41.517.866 páginas apenas na versão em inglês da
Wikipédia. Isso é bastante conteúdo — muito mais do que os editores humanos
conseguem administrar. Para ajudar a manter essa enciclopédia open-source
gigantesca, milhares de robôs de software peneiram o site, desempenhando
tarefas servis e repetitivas como deletar vandalismos, aplicar punições,
corrigir erros de digitação, criar links e automaticamente importar
conteúdo.
Ao todo, os robôs representam apenas 0,1% dos editores da Wikipédia, mas
eles têm participação significativa na proporção de edições do site.
Infelizmente, os desenvolvedores de software que criaram os robôs não
entendem realmente ou contabilizam como os robôs interagem uns com os
outros. Como a própria natureza da Wikipédia, a criação de robôs é um
processo descentralizado, com contribuidores individuais que desenvolvem
seus próprios scripts. Existe um grupo de aprovações
<https://en.wikipedia.org/wiki/Wikipedia:Bot_Approvals_Group>, mas seus
membros seguem rigorosamente a política de robôs
<https://en.wikipedia.org/wiki/Wikipedia:Bot_policy> da Wikipédia, que não
leva as interações entre robôs em consideração.
De fato, de vez em quando, um robô faz uma certa alteração em uma página
que outro robô tenta desfazer. Diferentemente dos editores humanos, os
robôs não conseguem negociar entre si e, como autômatos que são,
simplesmente fazem o que foram programados para fazer. Uma vez lançados ao
abismo que é a Wikipédia, esses robôs e suas interações ficam amplamente
esquecidos por seus desenvolvedores humanos.
Para entender até que ponto as lutas de robô atrapalham a Wikipédia,
cientistas da computação do Instituto de Internet de Oxford e do Instituto
Alan Turing estudaram como esses algoritmos interagiam em 13 edições de
línguas diferentes do site, ao longo de um período de mais de dez anos
(2001 a 2010). Rastreando as edições feitas em cada página e se
certificando de que nenhum editor humano estivesse envolvido, os
pesquisadores conseguiram observar como os robôs interagiam entre si e como
seus encontros frequentemente levavam a consequências imprevisíveis.
De maneira interessante, as ações dos robôs do site variaram de acordo com
seus ambientes culturais distintos.
“Isso tem implicações não apenas em como projetamos agentes artificiais,
mas também em como os estudamos”, disse a autora principal do estudo,
Milena Tsvetkova, em comunicado. “Precisamos de mais pesquisas sobre a
sociologia dos robôs.”
Ao todo, os robôs desfizeram bastante o trabalho uns dos outros. Os robôs
da versão em português da Wikipédia foram os mais antagônicos, revertendo o
trabalho de outros robôs 185 vezes durante o período de dez anos, em média.
Na versão em inglês, os pesquisadores registraram uma média de 105 revisões
feitas por um robô sobre o trabalho de outro robô ao longo do mesmo período
(isso é cerca de três vezes a taxa das edições humanas). Os robôs alemães
foram os mais civis, com uma média de apenas 24 edições de reversão ao
longo de uma década. Essas diferenças na coordenação de edição pode ter
acontecido pelo fato de as diferentes edições de línguas terem regras e
convenções de nomeação levemente diferentes.
Os robôs também se comportaram diferentemente dos editores humanos,
disparando edições muito mais tarde do que os humanos, e interagindo em
conflitos prolongados. Os humanos, por serem avisados sobre mudanças em uma
página pelos alertas automáticos, tendem a fazer os consertos em minutos e
então seguem para a próxima coisa. Mas os robôs da Wikipédia tipicamente
faziam sua primeira revisão cerca de um mês após a revisão inicial,
persistindo então no toma lá dá cá por anos. Essas guerras de edição não
são catastróficas, mas considerando o fluxo constante de mudanças, isso
pode confundir as pessoas que leem o site.
Os robôs são mais lentos do que os humanos (e claramente mais persistentes)
no que diz respeito às revisões, porque eles “se debruçam” em artigos na
rede em busca de edições (em vez de receber alertas), e frequentemente são
restringidos em termos de número de edições que podem fazer durante um
período de tempo. Mas o fato de que os robôs conseguem seguir essas
batalhas por tanto tempo é um forte indício de que os programadores humanos
estão falhando em identificar os problemas de edição em potencial cedo o
bastante.
É importante notar que muitos desses conflitos entre robôs pararam no
começo de 2013, quando a Wikipédia fez algumas alterações na maneira como
os links “inter-idiomas” funcionavam no site. Dito isso, os pesquisadores
dizem que esse episódio na história da Wikipédia mostra que um sistema de
robôs simples pode produzir dinâmicas complexas e consequências
indesejadas. Olhando mais profundamente, é um potencial presságio de coisas
a vir, conforme “robôsferas” novas e mais complexas surgem em torno da
rede. É um sinal preocupante de que conflitos podem emergir tão facilmente
e rapidamente dentro de ecossistemas digitais.
Em particular, a observação de que uma única tecnologia pode produzir
resultados tão diferentes dependendo do ambiente cultural tem implicações
na pesquisa de inteligência artificial. Compreender o que afeta as
interações entre robôs, dizem os pesquisadores, será crucial para qualquer
processo autônomo, desde a administração de redes sociais até o
rastreamento de cibersegurança e o desenvolvimento de veículos
auto-dirigidos.
“Um veículo automatizado irá dirigir de forma diferente em um autobahn
alemã em comparação com como irá dirigir pelas colinas toscanas da Itália”,
apontou o co-autor do estudo Taha Yasseri. “Da mesma forma, a
infraestrutura online local que os robôs habitam terá alguma influência em
como eles se comportam e em seu desempenho.”
Como já mencionado, a Wikipédia aplica uma política de robôs
<https://en.wikipedia.org/wiki/Wikipedia:Bot_policy>. Os robôs, diz a
Wikipédia, “são potencialmente capazes de editar muito mais rápido do que
os humanos; e têm um nível menor de escrutínio em cada edição do que o
editor humano; e podem atrapalhar severamente se estiverem com defeitos ou
forem mal utilizados”.
Para prevenir potenciais problemas, os desenvolvedores precisam se
certificar de que os robôs da Wikipédia vão desempenhar apenas as tarefas
em que haja consenso, aderindo às políticas e diretrizes do site, entre
outras restrições. Mas, conforme esse novo estudo mostra, os robôs também
precisam ser programados para trabalhar entre si.
[PLOS ONE
<http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0171774>]