Entenda como algoritmos interferem nas suas decisões – e até no seu futuro

No texto anterior (já leu? Se não, clica aqui) falamos um pouco sobre o que é um algoritmo e como não existe neutralidade nas decisões tomadas de forma automatizada.  

Então como evitamos que decisões injustas sejam tomadas? Como podemos prever se um algoritmo pode ter consequências indesejadas?

Pra responder essas perguntas acreditamos que vale a pena pensarmos sobre o impacto que um algoritmo pode ter na vida das pessoas. 

Vamos começar falando de redes sociais. 

O objetivo das empresas que as criaram é fazer com que passemos o maior tempo possível vidrados na rede. Quanto mais tempo passamos em em uma rede social, mais anúncios vemos e mais dados nossos podem ser coletados (o que curtimos? Que tipo de conteúdo passamos mais tempo olhando? E por aí vai).

Essas são as principais fontes de renda de empresas como Facebook, dona também do Instagram. O que significa que o algoritmo da rede vai ser desenhado de acordo com esse objetivo: te deixar o maior tempo possível interagindo com a rede social.

Para te manter engajada, a empresa utiliza informações das suas usuárias que podem ir desde posts que a pessoa curtiu e comentou até informações pessoais, localização, idade, gênero, círculo social. 

Nós não temos como saber exatamente quais de nossas informações estas redes utilizam e nem como. E isso nos preocupa. 

O caso da Cambridge Analytica

A Cambridge Analytica criou um teste de personalidade aparentemente inofensivo e ofereceu o teste para usuárias do Facebook. Ao fazer isso, a empresa não só coletava as respostas do teste, como também as informações do perfil (bem como do perfil de amigos) na rede social. 50 milhões de pessoas tiveram suas informações pessoais do Facebook entregues para a Cambridge Analytica, que é na verdade uma empresa de marketing político.

Além de pegar informações de quem preencheu o teste, a empresa também teve acesso à rede de contatos dessas usuárias e usou essa massa de dados para criar perfis psicológicos que indicavam a intenção de voto de cada pessoa. O objetivo era direcionar e aumentar os votos do candidato à presidência Donald Trump. Não é possível afirmar que essa é a causa da vitória de Trump nas eleições, mas certamente foi uma ferramenta que ajudou muito.

Além da coleta e uso de dados para direcionar o comportamento das usuárias de rede sociais. 

O caso dos tribunais dos EUA

Esse outro exemplo ilustra bem como ferramentas automatizadas podem ter implicações sociais danosas: Nos EUA tribunais começaram a utilizar um programa para classificar réus de maneira “automática”. Um software proprietário foi adquirido de uma empresa privada e implementado em diversos estados. Esse software prometia uma análise mais imparcial do que a feita por uma pessoa.  A Pro Publica fez uma pesquisa completa sobre esse assunto que você pode ler aqui

O resultado do uso desse software foi que pessoas negras eram consideradas mais perigosas que pessoas brancas independente do histórico criminal. 

O problema de não saber como o algoritmo toma decisão

Quando falamos de software de código fechado, como os mencionados nos dois exemplos acima, estamos falando de algoritmos que desconhecemos os parâmetros. Não temos como saber exatamente o que aquele software foi desenhado para fazer. 

Esse é o tipo de software utilizado pelas grandes empresas de tecnologia. Facebook, Google, Youtube, Uber não divulgam como construíram o seu software, quais informações elas utilizam e para o quê. Assim, ficamos vulneráveis à tomada de decisão dessas empresas. Não sabemos que parâmetros o Uber utiliza para calcular o valor da corrida, não sabemos como o Youtube recomenda vídeos, não sabemos como o Google rankeia o conteúdo na internet. O que fazemos é observar e confiar que essas empresas estejam sendo transparentes com suas usuárias.

Quando a construção de software é financiada pelo setor privado, a tendência é que o objetivo esteja conectado a interesses privados (lucro) e não o bem comum. 

O que significa que entender esses interesses é um ponto de partida importante.

Sabemos que é importante que uma mudança sistêmica, inclusive através de regulamentações, aconteça. E sabemos também que usar as redes sociais de forma consciente é algo praticamente impossível.

Jonathan Crary ilustra isso muito bem no livro 24/7: Capitalismo Tardio e os Fins do Sono, onde diz que ““é totalmente impossível que o sujeito do dispositivo o use ‘de modo correto’”, e mostra como nossa atual sociedade usa a tecnologia para fazer com que a gente sinta que precisa estar conectado e responsivo o tempo todo. Além de fazer com que possamos consumir a qualquer hora e local, e que com o tempo passemos a nos sentir culpados até por dormir. 

Ele mostra que um adulto norte-americano médio dorme agora aproximadamente seis horas e meia por noite, uma redução do patamar de oito horas da geração anterior e (por incrível que pareça) de dez horas do começo do século XX.

No texto da semana que vem falaremos sobre uma possível alternativa: os softwares de código aberto. 

Até lá 🙂

[o que é] um algoritmo?

Cena clássica: você tá lá assistindo um vídeo no Youtube e a pessoa dona do canal larga aquele texto que todo mundo já sabe de cor: “dá um like aqui, se inscreve no canal, compartilha o vídeo e comenta aqui embaixo”. 

É meio pentelho né? Mas tem uma razão pras pessoas fazerem isso. 

Todas essas ações ajudam o algoritmo daquela rede social a entender que aquele conteúdo é relevante e o distribuir para uma audiência maior.

Mas vamos lá, o que é exatamente um algoritmo?

Pedimos perdão, mas não vamos fugir do exemplo clássico.

Um algoritmo é como… é como o que? O que? Mais alto! (kkkkk) Um algoritmo é como uma receita de bolo: uma série de instruções para completar uma tarefa. Neste caso, fazer um bolo. A depender da complexidade do bolo, a receita pode precisar de mais ou menos passos. Em um algoritmo é a mesma coisa: As instruções podem ser simples como ‘Desligue o computador’ ou podem conter inúmeros passos e variáveis a levar-se em conta. 

Vamos usar o caso do Youtube pra exemplificar isso tudo um pouco melhor. 

Imagine um passo-a-passo como o seguinte:

1- pegue todas as postagens que ocorreram na última hora
2- Dê uma nota de 0 a 10 para as postagens.
Para isso, considere:
Número de likes
Número de comentários
Quantas vezes a postagem foi compartilhada 
Número de seguidores que o autor da postagem tem
3- Recomende as postagens que tem maior nota para pessoas que ainda não as visualizaram

Voilá: Isso é um algoritmo.

Toda vez que alguém diz que o “algoritmo tomou uma decisão”, isso significa que algum ser humano criou parâmetros e ordens, que foram traduzidos usando uma linguagem de programação para que um computador pudesse executar essas ordens. 

O que isso quer dizer, então? Não existe neutralidade em uma tomada de decisão por ela ter sido executada através de um algoritmo. E esse é um argumento muito utilizado atualmente. “Ah, mas a decisão foi tomada pelo computador”. Foi tomada pelo computador, que seguiu as ordens dadas por um ser humano.

Vamos usar um pequeno exemplo? É o último, prometemos.

Alguns bancos decidiram usar algoritmos para facilitar a análise de crédito dos seus clientes ou clientes em potencial. A justificativa é de que isso possibilitaria uma análise e decisão neutra sobre quem poderia receber crédito e a que taxa de juros.

Sabem o que se descobriu? Que o seu CEP é um dos critérios que o algoritmo leva em conta para te conceder crédito. E que os CEPs correspondentes a bairros mais pobres, onde pessoas negras e latinas moram, levavam a nota da pessoa para baixo. 
(fonte: The Guardian)

E aí? Se a decisão é tomada por um algoritmo quer dizer que ela é imparcial?

A gente acredita que não. Por que todo algoritmo é criado por um ser humano e carrega consigo os parâmetros que essa pessoa (ou instituição) decidiu que deveria carregar.

De acordo com Virginia Eubanks “Quando as ferramentas automatizadas de tomada de decisão não são construídas para desmantelar as desigualdades estruturais. sua velocidade e escala as intensificam”.

Essa preocupação levou um grupo de pessoas programadoras a criar a ferramenta EthicalOS que ajuda a prever e mitigar consequências não intencionais de tomadas de decisão automatizadas.

Algoritmos impactam direta ou indiretamente nossas vidas e, na nossa visão, nos apropriar desse conhecimento e de como funcionam essas ferramentas, é um meio para construir um futuro em que a tecnologia melhore a vida das pessoas ao invés de reforçar e intensificar as desigualdades já existentes.