NotíciasPolítica

Eleições com IA

Imagine que pesquisadores querem entender o que as pessoas pensam sobre política, valores sociais e até prever resultados eleitorais, mas sem gastar milhões em pesquisas.

Então, eles decidiram colocar uma IA (neste caso, o ChatGPT-4o) para fingir ser um cidadão típico e responder a uma série de perguntas de opinião.

Neste estudo, a IA recebeu perfis demográficos (como idade, gênero, renda) e, usando esses dados, imitou como uma pessoa real dos EUA ou da China responderia a questões culturais e em quem votaria nas últimas eleições. (Link do Paper no final)

O objetivo é ver se a IA consegue prever resultados reais com base nas respostas simuladas, economizando tempo e dinheiro para a ciência social.

Se a IA conseguir, ela pode se tornar uma ferramenta poderosa para entender o público sem precisar entrevistar cada pessoa de verdade.

O artigo começa discutindo a ideia de usar modelos de linguagem (LLMs) — especificamente o ChatGPT-4o — para ver se conseguem “imitar” humanos em pesquisas de opinião. Por quê? Porque modelos desses já provaram que conseguem simular decisões humanas, então, por que não deixar a tarefa cansativa de responder pesquisas para uma IA? Seria uma economia de tempo e dinheiro absurda para cientistas sociais.

Este estudo testa a habilidade da IA para simular respostas em questões culturais e prever resultados eleitorais. E, claro, tudo isso com a promessa de que a IA possa entender tanto os Estados Unidos quanto a China, com todos seus nuances culturais, baseando-se em bancos de dados como o World Values Survey (WVS) e o American National Election Studies (ANES).

Metodologia

Como conseguiram fazer essa mágica? Eles alimentaram o modelo com perfis demográficos (como idade, estado, renda, etc.) para que o ChatGPT-4o assumisse “personas” diferentes e respondesse perguntas sobre valores, ética, e confiança. Em outras palavras, o modelo “finge” ser uma pessoa com um perfil específico para responder perguntas de opinião.

Para simular comportamento de voto, o modelo também recebeu dados das eleições passadas dos EUA e foi instruído a prever escolhas para as eleições de 2024, entre Kamala Harris e Donald Trump, como se fosse um cidadão de carne e osso. Divertido, não?

Principais Resultados (Spoiler: IA ainda é um pouco ingênua)

  • Simulações de Pesquisa: O ChatGPT até se saiu bem. Ele replicou respostas humanas com precisão decente, conseguindo captar diferenças culturais básicas (EUA mais progressista, China mais conservadora em certos tópicos). Porém, ele é otimista demais quando o assunto é progresso social nos EUA. Sabe aquela pessoa que acha que o mundo está todo evoluído? Pois bem, o ChatGPT tende a superestimar a aceitação de ideias progressistas, especialmente entre americanos.
  • Previsão Eleitoral: O modelo não foi terrível. Em algumas configurações, ele até previu resultados eleitorais passados com bastante proximidade, especialmente quando orientado a considerar o histórico de votos do estado em questão (leia-se: lembrar que certos estados são mais previsíveis do que uma pedra). Quando isso foi ajustado, o ChatGPT conseguiu prever corretamente alguns estados, errando em poucos.

Para a eleição de 2024, o modelo apostou que Trump ganharia, o que se tornou verdade!

Reflexões Finais (ou “Como Esperar Milagres de um Modelo de Linguagem”)

O estudo conclui que, apesar dos limites, os LLMs têm potencial para substituir pesquisas de opinião, especialmente se o custo ou a amostra forem limitantes. Mesmo com a tendência a simplificar questões complexas (algo que uma IA faz muito bem, porque nuances humanas nem sempre são o forte delas), esses modelos conseguem imitar razoavelmente as respostas humanas.

Claro, eles ainda carecem de certas “nuances” culturais — como a de aceitar ou rejeitar questões sociais de maneira contextual. E, talvez, em futuras versões, esses modelos consigam até prever tendências emergentes antes de nós. LLMs ajudando cientistas a decidir quais perguntas fazer e quais são irrelevantes. Até lá, ainda precisamos dos humanos para ver além da literalidade fria das respostas do modelo.

Ah, e um toque de realidade: sim, esses modelos são bons, mas ainda têm um longo caminho para serem “confiáveis” na mesma medida que dados reais.

Link do Estudo: 2411.01582

Hibrael Loures

Criador da Comunidade UDIIA Trabalho com projetos, criação de conteúdo e IA Apaixonado por tecnologia

Artigos relacionados

Botão Voltar ao topo