Como algoritmos personalizados enganam seu cérebro para obter respostas erradas

Como algoritmos personalizados enganam seu cérebro para obter respostas erradas

Como algoritmos personalizados enganam seu cérebro para obter respostas erradas

Os sistemas de recomendação personalizados que selecionam conteúdo em plataformas como o YouTube também podem interferir na forma como as pessoas aprendem, de acordo com uma nova pesquisa. O estudo descobriu que quando um algoritmo decidia quais informações apareciam durante uma tarefa de aprendizagem, os participantes que não tinham conhecimento prévio sobre o tópico tendiam a se concentrar apenas em uma pequena parte do que lhes era mostrado.

Por explorarem menos o material disponível, esses participantes muitas vezes respondiam às perguntas incorretamente durante os testes posteriores. Apesar de estarem errados, eles expressaram grande confiança em suas respostas.

Estes resultados suscitam preocupações, disse Giwon Bahg, que conduziu o trabalho como parte da sua tese de doutoramento em psicologia na Universidade Estatal de Ohio.

Algoritmos podem criar preconceitos mesmo sem conhecimento prévio

Grande parte da pesquisa existente sobre algoritmos personalizados examina como eles influenciam opiniões sobre política ou questões sociais sobre as quais as pessoas já sabem pelo menos alguma coisa.

“Mas o nosso estudo mostra que mesmo quando não sabemos nada sobre um tópico, estes algoritmos podem começar a construir preconceitos imediatamente e podem levar a uma visão distorcida da realidade”, disse Bahg, agora pós-doutorado na Universidade Estadual da Pensilvânia.

As descobertas aparecem no Revista de Psicologia Experimental: Geral.

Brandon Turner, coautor do estudo e professor de psicologia na Universidade Estadual de Ohio, disse que os resultados indicam que as pessoas podem rapidamente pegar as informações limitadas fornecidas pelos algoritmos e tirar conclusões amplas, muitas vezes infundadas.

“As pessoas perdem informações quando seguem um algoritmo, mas pensam que o que sabem se generaliza para outros recursos e outras partes do ambiente que nunca experimentaram”, disse Turner.

Um exemplo de recomendação de filme

Para ilustrar como este preconceito pode surgir, os investigadores descreveram um cenário simples: uma pessoa que nunca viu filmes de um determinado país decide experimentar alguns. Um serviço de streaming sob demanda oferece recomendações.

O espectador seleciona um thriller de ação porque ele aparece no topo da lista. O algoritmo então promove mais thrillers de ação, que o espectador continua a escolher.

“Se o objetivo desta pessoa, seja explícito ou implícito, era de facto compreender o panorama geral dos filmes neste país, a recomendação algorítmica acaba por distorcer seriamente a compreensão”, escreveram os autores.

Ao ver apenas um gênero, a pessoa pode ignorar filmes fortes de outras categorias. Eles também podem formar suposições imprecisas e excessivamente amplas sobre a cultura ou a sociedade representada nesses filmes, observaram os autores.

Teste Algorítmico Efeitos com criaturas fictícias

Bahg e sua equipe de pesquisa exploraram essa ideia experimentalmente com 346 participantes online. Para garantir que ninguém trouxesse conhecimento prévio, os pesquisadores usaram uma tarefa de aprendizagem completamente fictícia.

Os participantes estudaram vários tipos de alienígenas semelhantes a cristais, cada um definido por seis características que variavam entre categorias. Por exemplo, uma parte quadrada do alienígena pode parecer preta escura em alguns tipos e cinza claro em outros.

O objetivo era aprender a identificar cada tipo de alienígena sem saber quantos tipos existiam.

Como o algoritmo orientou a aprendizagem

No experimento, as características dos alienígenas foram escondidas atrás de caixas cinzas. Em uma condição, os participantes eram obrigados a clicar em todos os recursos para ver um conjunto completo de informações sobre cada alienígena.

Em outra condição, os participantes escolheram quais características examinar, e um algoritmo de personalização selecionou quais itens eles provavelmente amostrariam com mais frequência. Este algoritmo os orientou a examinar repetidamente os mesmos recursos ao longo do tempo. Eles ainda podiam ver qualquer recurso que quisessem, mas também podiam ignorar outros completamente.

Os resultados mostraram que aqueles guiados pelo algoritmo personalizado visualizaram menos recursos em geral e o fizeram de maneira padronizada e seletiva. Mais tarde, quando foram testados em novos exemplares alienígenas que nunca tinham visto antes, frequentemente os classificavam incorretamente. Mesmo assim, os participantes permaneceram confiantes nas suas respostas.

“Eles estavam ainda mais confiantes quando estavam realmente errados sobre as suas escolhas do que quando estavam corretos, o que é preocupante porque tinham menos conhecimento”, disse Bahg.

Implicações para as crianças e a aprendizagem cotidiana

Turner observou que essas descobertas têm significado no mundo real.

“Se você tem um filho tentando genuinamente aprender sobre o mundo e ele está interagindo com algoritmos online que priorizam fazer com que os usuários consumam mais conteúdo, o que vai acontecer?” Turner disse.

“O consumo de conteúdo semelhante muitas vezes não está alinhado com o aprendizado. Isso pode causar problemas para os usuários e, em última análise, para a sociedade.”

Vladimir Sloutsky, professor de psicologia na Ohio State, também foi coautor.

Share this content:

Publicar comentário