Polarização ideológica, filtros-bolha e algoritmos nas redes digitais

Por Marcelo de Mattos Salgado

Ideological polarization, filter bubbles and algorithms in digital networks

The article presents ideas from authors Eli Pariser and Cass Sunstein and cross them in an analysis of how political and ideological polarization has been building up in digital networks such as Facebook for over a decade — particularly, more recently, in the past five years. Pariser’s “filter bubble” and Sunstein’s decades-long research on polarization helps us better understand how isolationism, groupism, customization of social, digital experiences and artificial intelligence — or more precisely, algorithms — intersect in such a way as to favor the creation of echo chambers and to homogenize digital interactions. This can lead to less intellectually diverse social experiences and, consequently, to greater polarization between individuals and groups.

– – –

A palavra “polarização” tem origem francesa e significa “acentuação de diferenças”, sobretudo em questões sociais e político-ideológicas. O aprofundamento dos ruídos e atritos entre indivíduos nas redes sociais digitais, em particular nas duas últimas décadas — e de forma muito mais intensa nos últimos cinco anos — tem múltiplas razões e manifestações. Neste texto, apresentarei algumas ideias de Eli Pariser, que escreveu “The Filter Bubble”, traduzido no Brasil como “O filtro invisível”. O autor nos ajuda a compreender tal contexto de fricções sociodigitais. Também trago algumas contribuições de Cass Sunstein, que estuda polarização nas redes digitais há cerca de 20 anos.

A título de transparência e ética epistemológica, já que o tema tem fortes implicações políticas, vamos conhecer, primeiro, um pouco sobre esses autores. Pariser é, há muitos anos, um ativista político da esquerda dita progressista dos EUA e presidente do conselho da entidade MoveOn, grupo de ação política abertamente alinhado com o Partido Democrata, cujo maior doador é George Soros. A instituição apoiou Barack Obama, Hillary Clinton e financiou passeatas e protestos contra Donald Trump. Já Sunstein também é um Democrata e, inclusive, trabalhou como assessor de Barack Obama entre 2009 e 2012. A relevância das ideias desses dois autores, entretanto, transcende seus partidarismos.

O conceito central de Pariser — o filtro-bolha — trata da criação gradual de ecossistemas pessoais de informações trabalhadas por algoritmos. De outra forma: o uso da inteligência artificial dos algoritmos, refinado por diversas reiterações quanto ao fornecimento de dados por um indivíduo (visitas a páginas, compartilhamentos, comentários, “Curtir” etc.) ao longo do tempo, criaria uma bolha de preferências e experiências pessoais que produzem, a rigor, uma zona de conforto que filtra e, em teoria, protege o usuário daquilo no mundo exterior que difere dos seus gostos. Assim, o indivíduo tenderia a se isolar em comunidades, páginas e com amigos que basicamente pensam como ele e compartilham seus valores — particularmente, os político-ideológicos. E, a partir de Pariser, claro, você não pode sequer analisar aquilo que nem sabe que existe.

No filtro-bolha, as coisas parecem diferentes. Você não vê, de maneira alguma, as coisas que não lhe interessam. Você não está, nem de longe, consciente que existem grandes eventos e ideias que você está perdendo. (PARISER, 2011, p. 106)

Não por acaso, Sunstein propõe exatamente que a polarização começa pelo isolamento ideológico de um indivíduo que, estendido durante certo tempo, pode criar uma tendência à formação de echo chambers, ou câmaras de eco. Tais ambientes reforçam ideias já predominantes (SUNSTEIN, 2017, p. 114–115). No entanto, mais importante e talvez preocupante, tais posições tenderiam a se tornar, com a passagem do tempo, cada vez mais radicais (ibid., p. 63, 64, 114 e 115) — não importa a inclinação política considerada.

Conforme a pesquisa de Sunstein mostra, desde antes do ano 2000 existe a percepção de que a Web estimula certos grupismos ao mesmo tempo que isolacionismo, algo aparentemente contraditório, mas que será analisado adiante. Já em seu primeiro livro sobre o tema, o autor afirmou que a “polarização grupal” diz respeito

(…) a algo muito simples: depois da deliberação, as pessoas tendem a mover-se no sentido de um ponto mais extremo na direção para a qual os membros do grupo estavam originalmente inclinados. Com respeito à Internet e novas tecnologias de comunicação, o resultado é que grupos de pessoas que pensam de forma semelhante, engajadas em discussão uma com a outra, terminarão pensando a mesma coisa que pensavam antes — mas sob forma mais extrema.  (SUNSTEIN, 2001, p. 65.)

Sunstein também já enfatizava naquele momento que a Internet torna mais fácil que as pessoas “se isolem de visões que competem com as delas” (ibid., p. 67). Tal situação é um “terreno fértil para a polarização, e potencialmente perigosa para a democracia e a paz social” (ibid.). Sunstein lembra que, ainda antes, em 1995, Nicholas Negroponte enxergou a emergência do “Daily Me”, algo como “Diário Eu”, referência que inclui a ideia de customização de conteúdo.

(…) ele sugeriu que você [pessoas em geral] não contaria com o jornal local para fazer a curadoria das informações (…) Em vez disso, você poderia desenhar um pacote de comunicações apenas para você com cada componente escolhido anteriormente na totalidade. (SUNSTEIN, 2017, p. 16)

Bem mais recente do que Negroponte, Pariser, em tom de alerta, também fala sobre a customização ou personalização da experiência nas redes digitais:

Seria uma coisa se toda esta customização fosse apenas para publicidade direcionada. Mas a personalização não está apenas moldando o que compramos. (…) está moldando como a informação escoa bem além do Facebook (…) está influenciando a que vídeos assistimos no YouTube (…) Os algoritmos que orquestram nossos anúncios estão começando a orquestrar nossas vidas. (PARISER, 2011, p. 8 e 9)

Desta forma, o grande risco seria que os mesmos algoritmos que, por um lado, aparentemente facilitam nossas viagens nos fluxos binários e nos ajudam a compor a melhor ilusão de unidade identitária digital, por outro, contribuiriam para nosso isolamento no nível das ideias, de tal forma a nos privar ou reduzir consideravelmente nossa capacidade de lidar com o contraditório — ou, meramente, o diferente.

Ainda: à primeira vista, pode parecer paradoxal a emergência, ao mesmo tempo, de segregação e isolamento em nível individual e grupismos, ou seja, valorização de coletivos digitais. Em verdade, não há paradoxo, mas uma relação de continuidade entre os dois. Primeiro, em parte por conta do efeito progressivo dos algoritmos, as pessoas tendem a se isolar, mesmo que ainda experimentem algum contato com a coletividade; então, também por conta da natureza básica social dos humanos e/ou das mídias digitais, se agrupam — mas buscam ou montam grupos que, em grande parte, tendem a reproduzir seus discursos individuais. Por que não buscam grupos com ideias diferentes?

(…) Mas quando as opções são tão abundantes, muitas pessoas aproveitarão a oportunidade de ouvir apenas ou principalmente esses pontos de vista que acham mais agradáveis. (…) há uma tendência humana natural de fazer escolhas em relação ao entretenimento e às notícias que não perturbam nossa visão preexistente do mundo. (SUNSTEIN, 2017, p. 63–64)

Em outras palavras: o excesso de opções, informações e possibilidades proporcionadas por redes digitais tornariam o uso de filtros uma necessidade; afinal, o dia continua a ter 24 horas e nossas limitações humanas são, essencialmente, as mesmas. Desta forma, muitas pessoas optam, por meio de filtros diversos, pela simplificação de sua experiência social digital.

Adicionalmente, conforme analisado, os algoritmos — caso do Facebook e de outras empresas do Vale do Silício, que também têm seu próprio viés político-ideológico — contribuem para a criação de câmaras de eco que tendem a ser ideologicamente puras ou homogêneas: tais processos matemáticos ajudam a constituir experiências sociais viciadas e reduzem ainda mais a diversidade de ideias a que somos expostos — a forma de diversidade que realmente importa para quem não é um ideólogo.
– – –
P.S.: o autor apresentou no fim de 2017, no evento do grupo Sociotramas “Cacofonia nas redes“, palestra em que aborda o tema deste artigo, somado também ao pensamento pós-moderno — que o mesmo considera um fator nas polarizações contemporâneas — e tensões a respeito da percepção de verdade, pós-verdade e objetividade. O livro homônimo (com este artigo completo) foi publicado em 2018/2 e o tema será explorado em maior profundidade pelo autor em seu doutorado, iniciado no mesmo semestre sob a orientação da prof.ª Lucia Santaella.

Referências

GENTZKOW, Matthew. Polarization in 2016. Site da Universidade de Stanford. In < https://web.stanford.edu/~gentzkow/research/PolarizationIn2016.pdf >. Acesso: 29 de julho de 2018.

PARISER, Eli. The Filter Bubble: How the new personalized Web is changing what we read and how we think. Estados Unidos: Penguin Books, 2011.

SUNSTEIN, Cass. Republic.com. Princeton: Princeton University Press, 2001.

_______. #Republic, Divided Democracy in the Age of Social Media. Princeton: Princeton University Press, 2017.

3 comentários sobre “Polarização ideológica, filtros-bolha e algoritmos nas redes digitais

  1. Marcelo de Mattos Salgado disse:

    Oi, João. Aqui é Marcelo de Mattos Salgado, o autor do artigo. Você pode me contatar no msalgadosp@gmail.com. Comecei esta pesquisa no ano passado (2017), em evento do grupo (“Cacofonia nas redes”) e também a articulei ao pensamento pós-moderno e à questão da verdade, pós-verdade e objetividade. O novo livro de nosso grupo, com este meu artigo completo, tem o mesmo nome do referido evento e sai agora, em 2018/2. Explorarei o tema ainda mais profundamente em minha tese de doutorado, que estou começando. Até a prof. Lucia, que vai me orientar no doutorado, começou a tocar neste assunto (veja o texto de 13/8 aqui no blog), o que também indica sua relevância e me estimula a ir adiante. Fique à vontade para citar o artigo e me escrever. Abraço!

Deixar mensagem para João Carlos Caribé Cancelar resposta