Nos últimos tempos, vem sendo muito discutida a questão da responsabilidade das redes sociais sobre a qualidade das informações que chegam aos usuários. O Facebook vem sendo constantemente acusado de ser omisso na propagação de notícias falsas pela web, assim como o Google.
Uma análise do site Business Insider, por exemplo, mostra como o sistema de previsão de texto da busca do Google pode estar estimulando usuários a acreditar em informações mentirosas mesmo sem que eles estejam procurando por isso.
Para fazer essa previsão, o Google se baseia em buscas populares na plataforma, palavras que outros usuários pesquisaram e links que estão em alta nos resultados de busca. Se por um lado isso pode ajudar o usuário a encontrar o resultado ideal, por outro lado pode levá-lo às páginas erradas da web, e até acreditar em certas informações falsas.
O Business Insider sugere uma busca simples, como “Michelle Obama é”. Ao digitar essa frase, o Google sugere que a busca completa seja “Michelle Obama é homem”. Isso pode levar os usuários a um vídeo, com uma suposta teoria da conspiração, de que a Primeira Dama dos Estados Unidos na verdade é um homem que se veste de mulher.
É óbvio que essa história é falsa, mas ainda assim o Google sugere ao usuário essa busca por meio de seu algoritmo. “Nós fazemos nosso melhor para impedir que termos ofensivos, pornografia ou discurso de ódio apareçam”, disse o Google em nota, “mas o autocomplete não é uma ciência exata”.
“Nossos resultados de buscas são um reflexo do conteúdo que está na web. Isso significa que, às vezes, retratos desagradáveis de assuntos sensíveis online podem afetar o que esses resultados mostram para determinadas pesquisas. Esses resultados não refletem as opiniões ou crenças do Google. Como empresa, nós valorizamos a diversidade de perspectivas, ideias e culturas”, continua o comunicado.