A IA está transformando a política, assim como as mídias sociais fizeram
A última década ensinou-nos lições dolorosas sobre como as redes sociais podem remodelar a democracia: desinformação se espalha mais rápido que a verdade, as comunidades online se consolidam em câmaras de ecoe as divisões políticas se aprofundam à medida que polarização cresce.
Agora, outra onda de tecnologia está a transformar a forma como os eleitores aprendem sobre as eleições – só que de forma mais rápida, em grande escala e com muito menos visibilidade. Grandes modelos linguísticos (LLMs), como ChatGPT, Claude e Gemini, entre outros, estão a tornar-se os novos veículos (e por vezes, árbitros) de informação política. Nossa pesquisa sugere a sua influência já está a repercutir na nossa democracia.
LLMs são sendo adotado em um ritmo isso faz com que a aceitação da mídia social pareça lenta. Ao mesmo tempo, tráfego para sites tradicionais de notícias e pesquisa diminuiu. À medida que as provas intermediárias de 2026 se aproximam, mais da metade dos americanos agora têm acesso à IA, que pode ser usada para coletar informações sobre candidatos, questões e eleições. Enquanto isso, pesquisadores e empresas estão explorando o uso de IA para simular resultados de pesquisas ou para entender como sintetizar as opiniões dos eleitores.
Estes modelos podem parecer neutros – politicamente imparciais e apenas resumindo factos de diferentes fontes encontrados nos seus dados de formação ou na Internet. Ao mesmo tempo, funcionam como caixas negras, concebidas e treinadas de uma forma que os utilizadores não conseguem ver.
Os pesquisadores estão ativamente tentando desvendar a questão da cujas opiniões os LLMs refletem. Dado o seu imenso poder, prevalência e capacidade de “personalizar” a informação, estes modelos têm o potencial de moldar o que os eleitores acreditam sobre os candidatos, as questões e as eleições como um todo. E ainda não sabemos a extensão dessa influência.
Na preparação para as eleições presidenciais dos EUA em 2024, a primeira grande disputa política da era da IA, os fornecedores de modelos reconheceram estes riscos e comprometeram-se publicamente a enfrentá-los. O Google disse que estava demorando um “abordagem responsável e cautelosa“para lidar com tópicos relacionados às eleições. OpenAI disse que seu objetivo era evitar que sua tecnologia”minando o processo democrático.”
Mas as salvaguardas foram eficazes? Os LLMs exibiram preconceitos nas suas respostas a questões relacionadas com as eleições? Eles poderiam ser “dirigidos” por solicitações direcionadas a diferentes dados demográficos e características do usuário?
A única forma de responder a estas questões é através de auditorias sistemáticas e de um registo documental claro – esta foi a plataforma de lançamento para o nosso estudar. À medida que as eleições de 2024 se aproximavam, nossa equipe elaborou quase 600 perguntas sobre candidatos, o processo eleitoral e previsões sobre quem venceria. Cada um veio com 21 variações, às vezes incluindo descritores como “Sou democrata/republicano/independente” ou “Sou hispânico/negro/branco”, bem como instruções como “Explique seu raciocínio”. Juntos, isso resultou em um questionário com mais de 12.000 perguntas.
A partir de julho de 2024, colocamos essas questões quase diariamente a uma dúzia de modelos da Anthropic, OpenAI, Google e Perplexity. O resultado: um banco de dados publicamente disponível de mais de 16 milhões de respostas, documentando como esses sistemas evoluíram por meio de atualizações de desenvolvedores e também de eventos eleitorais.
Os nossos resultados levantam questões urgentes sobre como a IA orienta o que os eleitores aprendem sobre os candidatos e o que isso pode significar para a integridade das nossas eleições no futuro.
Para começar, descobrimos que o “comportamento” do LLM muda constantemente – às vezes gradualmente, às vezes abruptamente – nas respostas da IA a perguntas idênticas ao longo do tempo. Algumas mudanças estão relacionadas com atualizações de modelo anunciadas publicamente; outros não têm explicações óbvias. Essas mudanças parecem sutis, mas consistentes, sugerindo que talvez os desenvolvedores façam ajustes em tempo real além dos lançamentos anunciados publicamente. Infelizmente, a maioria das pessoas não percebe que suas informações vêm de fontes em constante mudança.
Talvez o mais preocupante é que os LLMs carecem de consistência interna. Os modelos calibram as suas respostas com base em pistas demográficas como “Sou mulher” ou “Sou negro”, e tratam certos grupos como mais representativos do eleitorado do que outros com base na formulação específica das perguntas feitas.
Os modelos também ajustam suas respostas a perguntas que contêm dicas sobre as opiniões políticas do usuário. Por exemplo, quando questionado sobre políticas de saúde, o mesmo modelo deu respostas diferentes a sugestões que sugeriam que a questão era colocada por um Democrata versus um Republicano. Os factos eram muitas vezes precisos, mas os LLMs ajustaram as suas posições com base nesses sinais.
Mesmo quando os modelos se recusam a dizer qual o candidato que tem as melhores hipóteses de vencer as eleições (quase certamente um subproduto da rigorosa proteção dos fornecedores dos modelos), as suas “crenças” sobre a eleição e os candidatos e o enquadramento subtil podem moldar o que os eleitores pensam ser verdadeiro ou normal. Ao analisar as suas respostas às perguntas das sondagens de boca de urna, incluindo questões como as que são mais importantes para os eleitores, poderíamos fazer a engenharia inversa das suas previsões implícitas sobre a distribuição dos eleitores. Curiosamente, o mesmo modelo previu por vezes uma vitória de Harris, por vezes de Trump, dependendo da pergunta que fizemos. Isto sugere que as crenças internas dos modelos são distorcidas com base na forma como as perguntas são formuladas ou nos seus tópicos.
O resultado é que os eleitores estão a receber informação eleitoral filtrada através de sistemas que parecem conter pressupostos políticos que não conseguem ver ou avaliar. Não sabemos exatamente de quais fontes os LLMs se baseiam, como eles avaliam informações conflitantes ou como seus resultados mudam ao longo do tempo.
A rápida adoção da IA assinala uma fase transformadora que requer muita atenção por parte dos investigadores e dos decisores políticos. Embora os fornecedores de modelos não possam abrir totalmente as suas caixas negras, podem apoiar e incentivar a auditoria independente. Isto poderia incluir permitir que os investigadores submetessem perguntas e analisassem os resultados em escala, criando um registo sistemático do comportamento do modelo ao longo do tempo. Os investigadores, por sua vez, devem abordar esta questão com curiosidade e desejo de compreender, em vez de “processar” sem ter toda a informação.
A IA está remodelando as informações que obtemos, assim como fizeram as redes sociais. Se o seu impacto não for controlado, corremos o risco de repetir erros do passado.
Share this content:



Publicar comentário