O império dos trapos oleosos do Zuck
Tradução do artigo Cory Doctorow: Zuck’s Empire of Oily Rags
de Cory Doctorow,em Locus, a 2 de julho de 2018.
Por 20 anos, os defensores da privacidade têm soado o alarme sobre a vigilância comercial online, a forma como as empresas reúnem largos dossiers sobre nós, para ajudar os profissionais de marketing a dirigir-nos anúncios.
O Facebook não tem um problema de controlo mental, tem um problema de corrupção. A Cambridge Analytica não convenceu pessoas decentes a tornarem-se racistas; convenceu os racistas a tornarem-se eleitores.
Este argumento não resultou: de modo geral, as pessoas questionavam a eficácia da publicidade direcionada; os anúncios que recebíamos raramente eram muito persuasivos e, quando resultavam, era em geral porque os anunciantes tinham descoberto o que queríamos e se ofereciam para o vender: gente que antes procurara um sofá via anúncios de sofás e, se comprassem um sofá, os anúncios persistiam por algum tempo, porque os sistemas de segmentação de anúncios não tinham inteligência que chegasse para saber que os seus serviços já não eram necessários – mas, a sério, que mal há nisso?
O pior cenário era que os anunciantes desperdiçavam o seu dinheiro com anúncios que não surtiam efeito, e o melhor cenário era que as compras se tornavam um pouco mais cómodas, pois os algoritmos preditivos facilitavam que encontrássemos o que estávamos mesmo a procurar.
Os defensores da privacidade tentaram explicar que a persuasão era só a ponta do iceberg. As bases de dados comerciais eram alvos suculentos para espiões e ladrões de identidade, para não falar da chantagem sobre pessoas cujos rastos de dados revelavam práticas sexuais, crenças religiosas ou visões políticas de risco social.
Agora estamos a levar com o coice da tecnologia e, finalmente, as pessoas voltam a nós, os defensores da privacidade, a dizer que afinal sempre tivéramos razão; com vigilância suficiente, as empresas conseguem vender-nos não importa o quê: o Brexit, Trump, a limpeza étnica em Mianmar e campanhas eleitorais bem-sucedidas para perfeitos patifes como Erdogan da Turquia e Orbán da Hungria.
É ótimo que a mensagem da privacidade esteja por fim a alcançar um público mais amplo, e é emocionante pensar que estamos a aproximar-nos de um ponto crítico em relação à indiferença perante a privacidade e a vigilância.
Mas, embora o reconhecimento do problema da Big Tech seja muito bem-vindo, o que me preocupa é que o diagnóstico está errado.
Cory Doctorow
O problema é que estamos a confundir persuasão automatizada com segmentação automatizada. Mentiras ridículas sobre o Brexit, violadores mexicanos e a infiltração da lei da Sharia não convenceram gente, de outro modo sensata, que o preto é branco e que o céu é verde.
Em vez disso, os sofisticados sistemas de segmentação disponíveis no Facebook, Google, Twitter e outras plataformas de publicidade da Big Tech tornaram mais fácil encontrar pessoas racistas, xenófobas, medrosas e raivosas que queiram acreditar que os estrangeiros estão a destruir o seu país, financiados por George Soros.
Lembremo-nos que as eleições são, em geral, casos resolvidos no fio da navalha, mesmo para políticos que ocupam os seus lugares há décadas, com margens estreitas: 60% dos votos é uma vitória retumbante. Lembremo-nos, também, que quem vence na maioria das consultas é “nenhuma das opções acima”, com um grande número de eleitores a não votar. Se mesmo um pequeno número desses não votantes puder ser motivado para comparecer às urnas, lugares seguros podem tornar-se contestados. Numa corrida acirrada, ter uma forma barata de atingir todos os membros latentes do Klu Kux Klan de um círculo eleitoral e informá-los discretamente que Donald J. Trump é o seu homem muda completamente o jogo.
A Cambridge Analytica é como um mentalista de palco: faz algo trabalhoso, mas finge que se trata de uma coisa sobrenatural. Um mentalista de palco vai treinar durante anos para aprender a memorizar rapidamente um baralho de cartas – e então afirma que é capaz de nomear a nossa carta graças aos seus poderes psíquicos. Nunca vemos a prática de memorização nada glamorosa e nada impressionante. A Cambridge Analytica usa o Facebook para encontrar idiotas racistas e dizer-lhes para votarem em Trump, e depois afirma que descobriu uma forma mística de fazer com que as pessoas sensatas votem em maníacos.
Isso não quer dizer que a persuasão seja impossível. Campanhas de desinformação automatizadas podem inundar os canais com relatos contraditórios e aparentemente plausíveis do estado atual das coisas, tornando difícil a um observador casual compreender os eventos. A repetição a longo prazo de uma narrativa consistente, mesmo que seja manifestamente desequilibrada, pode criar dúvidas e encontrar adeptos – pensemos na negação da mudança climática, nas conspirações de George Soros, ou no movimento antivacinas.
Esses são processos longos e lentos, no entanto, que fazem pequenas mudanças na opinião pública ao longo dos anos, e funcionam melhor quando há outras condições que os apoiam – por exemplo, movimentos fascistas, xenófobos e nativistas que estão ligados à austeridade e à privação. Quando não temos que chegue por muito tempo, ficamos recetivos a mensagens que culpam os nossos vizinhos por privar-nos do nosso quinhão.
Mas não precisamos da vigilância comercial para criar multidões furiosas: Goebbels e Mao fizeram-no muito bem com técnicas analógicas.
O Facebook não é um raio de controlo mental. É uma ferramenta para encontrar pessoas que possuem características incomuns e difíceis de localizar, seja "pessoa que está a pensar em comprar um novo frigorífico", "pessoa com a mesma doença rara que nós" – ou "pessoa que poderia participar num pogrom genocida” e, em seguida, pô-los lado a lado com algumas tochas acesas, enquanto se lhes mostra uma prova social da validade do seu curso de ação, na forma de outras pessoas (ou bots) que estão a fazer a mesma coisa, para que se sintam parte de uma multidão.
Mesmo que os raios de controlo mental se mantenham ficção científica, o Facebook e outras plataformas comerciais de vigilância continuam a ser preocupantes, e não apenas porque permitem que gente com visões extremas se encontre. Reunir enormes dossiers sobre todas as pessoas do mundo é por si só assustador: no Camboja, o governo autocrático usa o Facebook para identificar dissidentes e submetê-los à prisão e à tortura; o serviço de Alfândega e Fronteiras dos EUA está a usar as redes sociais para identificar os visitantes dos EUA como culpados por associação, impedindo-os de entrar no país com base nos seus amigos, afiliações e interesses. Depois, há os ladrões de identidade, chantagistas e vigaristas que usam dados de agências de crédito, dados descarregados de utilizadores e redes sociais para arruinar a vida das pessoas. Finalmente, existem os hackers que aceleram os seus ataques de “engenharia social” ao coletar informações pessoais descarregadas para criar personificações convincentes, que induzem os seus alvos a revelar informações que lhes permitem invadir redes confidenciais.
Está na moda tratar as disfunções das redes sociais como resultado da ingenuidade dos primeiros tecnólogos, que não conseguiram prever estes resultados. A verdade é que a capacidade de criar serviços semelhantes aos do Facebook é relativamente comum. O que era raro era a irresponsabilidade moral necessária para levar isto a cabo.
De facto, sempre foi óbvio que, ao espiar os utilizadores da Internet, poderia melhorar-se a eficácia da publicidade. Isto não sucede tanto porque a espionagem ofereça insights fantásticos sobre novas formas de convencer as pessoas a comprar produtos, mas resulta do próprio grau de ineficácia do marketing. Quando a taxa de sucesso esperada de um anúncio está bem abaixo de um por cento, duplicar ou triplicar a sua eficácia ainda nos deixa com uma taxa de conversão abaixo de um por cento.
Mas também era óbvio, desde o início, que reunir enormes dossiers sobre todos os que usavam a Internet poderia criar problemas reais a toda a sociedade, de tamanho esmagador perante os ganhos mínimos que esses dossiers realizarim para os anunciantes.
É como se Mark Zuckerberg acordasse uma manhã e percebesse que os trapos oleosos que vinha acumulando na sua garagem poderiam ser refinados para obter petróleo de baixo valor e de teor extremamente baixo. Ninguém iria pagar muito por este óleo, mas havia muitos trapos oleosos e, desde que ninguém lhe pedisse para pagar os inevitáveis incêndios horríveis que resultariam de encher as garagens do mundo com trapos oleosos, ele poderia ter um lucro considerável .
Uma década depois, está tudo a arder e estamos a tentar dizer a Zuck e aos seus amigos que vão ter que pagar pelos danos e instalar o tipo de equipamento de supressão de fogo em que qualquer pessoa que armazene trapos oleosos deveria ter investido desde o início, e a indústria de vigilância comercial não está absolutamente nada disposta a encarar nada disso.
Isso porque os dossiers sobre milhares de milhões de pessoas têm o poder de causar danos quase inimagináveis e, ainda assim, cada dossier rende só alguns dólares por ano. Para que a vigilância comercial seja económica, ela tem que socializar todos os riscos associados à vigilância em massa e privatizar todos os ganhos.
Há uma palavra antiquada para isso: corrupção. Em sistemas corruptos, alguns malfeitores custam a todos os outros milhares de milhões para lucrar milhões – as economias que uma fábrica pode obter ao despejar poluição no abastecimento de água são muito menores do que os custos que todos suportamos por sermos envenenados pelos efluentes. Mas os custos são amplamente difundidos enquanto os ganhos são fortemente concentrados, de modo que os beneficiários da corrupção podem sempre gastar mais do que as suas vítimas para se safarem.
O Facebook não tem um problema de controlo mental, tem um problema de corrupção. A Cambridge Analytica não convenceu pessoas decentes a tornarem-se racistas; convenceu os racistas a tornarem-se eleitores.
Cory Doctorow é autor de “Walkaway, Little Brother” e “Information Doesn Want to Be Free — Laws for the Internet Age” [PDF, grátis] (entre muitos outros); é coproprietário da Boing Boing, consultor especial da Electronic Frontier Foundation, professor visitante de Ciência da Computação na Open University e afiliado do MIT Media Lab Research.
Comentários
Enviar um comentário
Comente, mesmo que não concorde. Gosto de palmadas nas costas, mas gosto mais ainda de polémica. Comentários ofensivos ou indiscretos podem vir a ter de ser apagados, mas só em casos extremos.