Negócios

DDB: É preciso ter mais transparência nos algortimos, diz Daniel Kahneman

O psicólogo israelense debateu em evento como algoritmos podem influenciar a política e as decisões empresariais

Foto: Ale Frata
Foto: Ale Frata

*por Charles Nisz, especial para o Startups

Autor dos livros “Rápido e devagar – duas formas de pensar” e “Ruído”, o psicólogo israelense Daniel Kahneman ganhou o Nobel de Economia de 2002 por seus estudos sobre economia comportamental, viés e tomada de decisão.

O psicólogo e professor universitário israelense abriu o Data Driven Business, evento ocorrido em São Paulo, na terça-feira (30), falando sobre esses temas e como algoritmos podem influenciar a política e as decisões empresariais.

“É complicado definir racionalidade. As pessoas são razoáveis em boa parte do tempo, mas nem sempre são racionais”, disse ele, fazendo um jogo de palavras para introduzir a complexidade do tema.

“Voto não é um processo racional. Os algoritmos trabalham para reforçar os pensamentos das pessoas. A influência é gigante quando você tenta prever os gostos das pessoas, mostrando pra elas notícias que elas vão querer ler de acordo com o seu interesse nas redes sociais. Nos EUA, e no mundo todo, a polarização é induzida por isso”, avaliou.

Ele citou o exemplo de uma pessoa que tem tendência a ser a favor da pena de morte, mas não é tão taxativa. Ao ver conteúdos sobre o assunto, ela acaba sendo exposta a opiniões mais radicais que as suas. E por uma tendência natural do ser humano, o interesse vai se voltar a isso. O que gera um cilco de constante refoçor daquele tipo de exposição. “O Google quer que você fique mais tempo na plataforma e escolhe as mensagens que fazem você ficar mais tempo. Isso vai criar polarização política imediatamente”, completou.

Kahneman defendeu a necessidade de haver mais transparência na forma como os algortimos trabalham. “Acho que se houvesse, pouca gente iria usar [os sistemas de recomendação]”, brincou.

Apesar das críticas, o Prêmio Nobel também apontou pontos positivos da inteligência artificial em sua exposição: “Carros autônomos, ao contrário do pensamento do senso comum, são mais seguros que veículos guiados por humanos. Nosso pensamento tende a achar erros cometidos por pessoas mais perdoáveis”.

O psicólogo israelense Daniel Kahneman abriu o evento Data Driven Business (Foto: Carol Mendonça)

Erros emocionais e cumulativos

Kahneman falou que há dois tipos principais de erros: os emocionais e os cumulativos. Os primeiros são similares ao exemplo acima. Os segundos são causados por vieses (reforço de padrões) e ruído (falta de correção do algoritmo, por exemplo)

“Erro emocional é causado por paixões, e tudo aquilo que é próprio da psicologia humana. Erro cumulativo é mais comum em organizações, onde há mais repetição de padrões”, disse o vencedor do Nobel de Economia de 2002. Questionado sobre como podemos evitar decisões rápidas e intuitivas, mas, muitas vezes, erradas, Kahneman respondeu:

“Usamos dois sistemas para tomar decisões, o sistema 1, mais intuitivo e rápido, e o sistema 2, mais racional, e que demanda mais esforço.O sistema 1 é o que responde quanto é 2=2. O sistema 2 é usado para parar o carro e virar à esquerda. Requer atenção.

Para Kahneman, a solução é “adiar um pouco a sua decisão, sem agir por impulso. O uso de dados pode ser um aliado importante nesse processo. As falhas nos julgamentos humanos estão por toda parte, até sem percebermos”. Para ele, sempre que houver um grande volume de dados, as máquinas vão tomar melhores decisões que os humanos.

Ele disse acreditar, no entanto, que é preciso tomar cuidado com as decisões baseadas em dados. Isso porque se uma determinada coisa não está naquela conjunto usado, ela não será vista, e será perdida. “Tirar os viéses é muito difícil. Quando se fala de raça, por exemplo. Não é só tirar a questão de qual é a raça da pessoa de um formulário. Há outros dados que indicam raça. Estamos cercados por algoritmos e é claro que eles influenciam as nossas decisõess”, disse.