Enquetes 2016 - História

Enquetes 2016 - História


Uma breve história de problemas de votação no dia da eleição

Os EUA têm uma longa história de problemas nas assembleias de voto e não apenas na escolha potencialmente agonizante sobre em quem votar. De problemas práticos à intimidação, dezenas de dificuldades enfrentaram os americanos ao tentarem fazer com que suas vozes fossem ouvidas. Durante a temporada de eleições primárias de 2016, os eleitores encontraram problemas que variam de longas filas a listas de registro incorretas. E, com o início das eleições gerais de terça-feira e # 8217, grupos de proteção eleitoral estão prontos para tratar de quaisquer questões que os eleitores possam encontrar.

Uma olhada na história dos problemas de votação nos Estados Unidos revela que, embora o dia da eleição sempre tenha sido complicado, as maneiras pelas quais a votação se tornou difícil ao longo dos anos são consistentes e se enquadram em apenas duas categorias: problemas de tecnologia e problemas de acesso.

Se algo pode ser dito sobre a história da tecnologia de votação americana, é que todo mecanismo de votação tem falhas.

Ao longo dos séculos, as mudanças tecnológicas proporcionaram novas oportunidades para erros e dificuldades na hora de votar. A votação por voz ou tíquete com código de cores expõe os eleitores à intimidação ou a votação por compra de votos exclui secretamente aqueles que não sabem ler ou escrever. Pode ser difícil interpretar a intenção de um eleitor em uma caixa de seleção em um pedaço de papel, mas as urnas mecânicas também podem funcionar mal nos chads pendurados e com covinhas da eleição de 2000. Enquanto isso, as máquinas computadorizadas não resolveram esse problema: em 2004, a senadora Barbara Mikulski, de Maryland, coletou relatórios de que os eleitores em três condados nunca viram as primárias do Senado em suas telas de urna de votação.

Mas, embora a tecnologia possa ser problemática, acessar e certificar-se de que todos os que têm o direito e o desejo de votar são capazes de fazê-lo & mdash sempre foi o problema mais preocupante do dia da eleição.

Talvez a forma mais direta de problema nas urnas seja ser negada à primeira vista. As mulheres que tentavam votar em protesto antes da aprovação da 19ª Emenda eram freqüentemente rejeitadas, embora não de forma ilegal.

Enquanto isso, outros que fez têm o direito de votar, muitas vezes, esse direito também foi negado - principalmente os afro-americanos.

Embora a violência e os tumultos no dia da eleição fossem relativamente comuns em todo o país em meados do século 19, o historiador David Grimsted contou 35 distúrbios no dia da eleição e 89 mortes como resultado dessa violência, entre 1828 e 1861 & mdashit nem sempre foi o resultado da histeria espontânea do eleitor . Em vez disso, mesmo depois que a 14ª Emenda garantiu aos homens negros os mesmos direitos de cidadania de que gozavam os americanos brancos, a violência significava que, na prática, o direito era apenas brevemente usufruído pela população negra. Octavius ​​Catto, um homem negro que ajudou a União na Guerra Civil, um intelectual e um professor habilidoso, foi baleado na Filadélfia em 1871 por votar. Quando Indianápolis realizou eleições municipais em maio de 1876, houve relatos de que eleitores afro-americanos foram atacados fisicamente nos locais de votação. E na eleição presidencial daquele ano, um supremacista branco na Carolina do Sul exigiu & # 8220 todo democrata deve se sentir obrigado a controlar o voto de pelo menos um negro, por intimidação, compra, mantendo-o afastado ou conforme cada indivíduo determinar. & # 8221

Uma carta de um homem afro-americano com a manchete no New York Vezes como & # 8220Como eles & # 8216 votaram & # 8217 no Mississippi & # 8221 descreveu a intimidação que enfrentou aqueles que conseguiram votar, que foram forçados sob ameaça de violência a votar o oposto do que queriam. Relatos de tais táticas levaram a uma investigação no Congresso, durante a qual um homem testemunhou que na Louisiana & # 8220 ele viu cinquenta homens de cor marcharem para as urnas por uma guarda de homens brancos e votaram na chapa democrata, sendo obrigados a mostrar seus bilhetes antes de votar , & # 8221 relatou o Detroit Imprensa livre.

E, tanto antes como depois daquele período de Reconstrução e mdasheven na década de 1960, métodos não violentos de privação de direitos também foram generalizados.

Os eleitores podem ter que cumprir requisitos financeiros. No início do século 19, Nova York aumentou a quantidade de propriedade tributável exigida para um homem negro votar, mesmo que tais requisitos tenham sido eliminados para outros. Os impostos eleitorais se tornaram um método onipresente de privar os negros após a Reconstrução. Mais tarde, eleitores em potencial às vezes eram falsamente informados de que poderiam ser presos por infrações não relacionadas, como multas de trânsito, se comparecessem às urnas, uma tática de amedrontamento usada no Texas em 1964 que aparentemente ainda estava sendo usada em Nova Jersey em 1996. Alguns foram ameaçados ou servido com retribuição econômica na forma de perda de empregos, despejo ou recusa de empréstimo.

Os eleitores podem ter que passar em um teste de alfabetização ou & # 8220entendido. & # 8221 A tortuosa & # 8220 lei das oito caixas & # 8221 de 1882 na Carolina do Sul tinha como objetivo confundir os eleitores menos instruídos, dando a cada corrida para o cargo uma urna diferente, para que você pudesse corresponder seu voto à caixa certa para aquele candidato e, periodicamente, embaralhar as caixas. Esses obstáculos desenvolveram-se em testes de alfabetização & mdash, que muitas vezes eram quase impossíveis de passar & mdash, que por muito tempo foram impostos aos afro-americanos no sul. Ainda na década de 1960, os eleitores podem ser questionados sobre questões lógicas complicadas que até mesmo um leitor especialista pode errar. As leis restritivas sobre a alfabetização não se destinavam apenas aos eleitores pobres ou negros: Nova York, lar de imigrantes por gerações, adotou um requisito de alfabetização em inglês em 1921.

Ou os eleitores podem achar que é simplesmente impossível chegar às urnas. Lerone Bennett Jr. escreveu em 1962 em Ébano sobre as estratégias empregadas para tornar o voto fisicamente impossível para eleitores negros no sul após a Guerra Civil: & # 8220Homens brancos armados estavam estacionados nas estradas que levavam às urnas & # 8216 para evitar que os negros apreendessem armas. & # 8217 Em um condado da Louisiana , os locais de votação estavam localizados em um deserto isolado. Os brancos se reuniram na igreja branca e foram informados, em sussurros, como chegar às urnas. & # 8221 Estas não foram & # 8217t as únicas manipulações e táticas de breves horas de votação ou alteração do horário de votação, persistindo mudanças de última hora nos locais de votação ou locais inacessíveis .

Essas preocupações também persistem hoje: em 2016, havia centenas de locais de votação a menos do que havia dois ou quatro anos atrás. E, por exemplo, uma mudança de última hora nos locais de votação já afetou os residentes de Boise, Ida.. O projeto ProPublica & # 8217s Electionland está monitorando relatórios de longos tempos de espera, problemas com máquinas e registros em todo o país

Em geral, porém, as coisas melhoraram.

O Voting Rights Act de 1965 ajudou a garantir que táticas como testes de alfabetização não pudessem mais ser usadas para privar os afro-americanos. Depois de 1975, o congresso exigiu assistência linguística para grupos minoritários em distritos onde representavam 5% da população ou eram 10.000. Uma extensão de 1982 à Lei de Direitos de Voto acrescentou proteção para eleitores cegos, deficientes e analfabetos. A Lei dos Americanos com Deficiências de 1990 exigia ainda acessibilidade física e acomodações para pessoas com deficiência.


Consórcio Eleitoral de Princeton

8 de novembro de 2016, 12:45 por Sam Wang

(Atualizações: dados das 6h06 para o presidente e o senado, e intervalos de confiança adicionados. 9h: mais descrição, também minimização da variância.)

Aqui estão os instantâneos finais. Quatro disputas para o Senado estão dentro de um ponto percentual: Indiana, Missouri, New Hampshire e Carolina do Norte. Os guerrilheiros de lá podem querer fazer advocacia para possíveis batalhas de recontagem.

Em breve, irei lançar um breve Guia Geek & # 8217s para a Eleição. Além disso, blogging ao vivo começando por volta das 20h.

Presidente: Hillary Clinton (D).

As estimativas presidenciais são baseadas no instantâneo atual na barra lateral direita, exceto para o mapa de resultado único mais provável, onde a minimização da variância foi feita para dar um instantâneo mais estável para Carolina do Norte, Clinton +1,0 ± 1,0% (N = 8 enquetes).

Resultado mais provável (mostrado no mapa abaixo): Clinton 323 EV, Trump 215 EV. Este também é o modo do histograma ajustado por NC.

Mediana: Clinton 307 EV, Trump 231 EV. Meta-Margem: 2,2%. Faixa de um sigma: Clinton 281-326 EV. A probabilidade de vitória é de 93% usando a suposição revisada de erro de pesquisa, +/- 1,1%.

Votação popular nacional: Clinton +4,0 ± 0,6%.

Sempre que possível, a minimização da variância foi usada para identificar uma janela de tempo que forneceu menor variância do que a janela de tempo padrão.

Modo: 51 cadeiras democratas / independentes, 49 cadeiras republicanas - a combinação mais provável é mostrada na tabela abaixo.

Mediana: 50 cadeiras democratas / independentes, 50 cadeiras republicanas. (média = 50,4 ± 1,1 o intervalo de 1 sigma gira para 49 a 51 assentos)

Cédula genérica do congresso: Democrata + 1%, quase o mesmo que 2012.

Expectativa baseada em relatórios políticos da Cook: 239 R, 196 D, um ganho de 8 lugares para os democratas.

168 comentários até agora & darr

Olhando para trás, para o erro da pesquisa primária de Michigan (http://election.princeton.edu/2016/03/09/how-surprising-was-the-sanders-win-in-michigan/), o que achamos das más notícias nesse lado da moeda (MI, -19 AZ, -12 NC, -10 NH, -9 PA, -4 IA, -4)? A boa notícia é: OH, +6 FL, +3. É difícil dizer sobre os estados do caucus CO, NV. Perdoe-me se este terreno foi coberto, adoraria um link para ele.

Respirações profundas, respirações profundas // 8 de novembro de 2016 às 11h46

Sam, alguém em Yale está falando mal de você!

Ed Wittens Gato // 8 de novembro de 2016 às 11h51

O Rei está morto & # 8230
Vida longa ao rei!
Nate REALMENTE não é assim.

Ed Wittens Gato // 8 de novembro de 2016 às 11h57

do artigo Wired & # 8211
Porque Wang navegou True North o tempo todo, enquanto Silver estava cautelosamente tentando guiar seu barco a vela de dados FiveThirtyEight (carregado com barras de ouro ESPN) através de furacões de categoria cinco traiçoeiros ventos contrários no que foi facilmente a campanha presidencial mais louca em a era política moderna.

Ei, pessoal & # 8211, por favor, não façam uma dança da vitória sobre este artigo? Eu gostaria de reduzir esse tipo de comparação. Todos vocês sabem o que ele fez para criar essa atividade aos olhos do público. Ele é um pioneiro.

Ed Wittens Gato // 8 de novembro de 2016 às 12h46

Eu disse a você em 2012 que tinha acabado com o Silver
quando ele desapareceu, o artigo do NYT que escreveu desmascarando o mito dem oversampling.
Isso foi pura satisfação sem adulteração.
Cientistas e matemáticos têm uma grande responsabilidade para com o bem público & # 8230.não se prostituem por cliques e olhos.
É por isso que a transparência dos modelos de agregação de pesquisas é tão importante.

Gato: independentemente disso, não aumenta o valor líquido do mundo em incitar (ou incendiar) uma briga de gatos. O mundo seria melhorado pela reconciliação aqui.

Alguém mais notou a periodicidade fixa no gráfico MM e de outros observadores de pesquisas como o Upshot? De pico a pico parece ser um pouco menos de 2 meses. Estranho porque os gráficos de estado (Upshot, por exemplo) não mostram prontamente esse recurso. Mas a trama nacional é uma convolução das parcelas estaduais, então esse é um comportamento emergente.

Alguém tem código FFT? Fique curioso para ver se isso está nos dizendo algo.

Bob McConnaughey // 8 de novembro de 2016 às 15h03

Não FFT, mas tenho algum código SAS que posso descobrir que é configurado para avaliar a sazonalidade, na verdade, foi emprestado deste site por Ed Stanek:
http://www.umass.edu/seasons/pdffiles/sea05d01.pdf
convertemos as datas para datas julianas, obtendo os thetas em radianos, obtendo os sen / cos das medidas em radianos, mas era realmente o código SAS desse cara & # 8217s.

Tenho certeza de que vai mostrar um pico em k = 1/2 meses. Mas o que isso significa? O que acontece nessa escala de tempo?

Aliás, os dados são sempre bonitos, não importa o que a Wired diga! )

Sim, aquela linha & # 8216de web design horrível & # 8217 no artigo me fez pensar: do que eles estão falando? Foi quando percebi pela primeira vez que sou um nerd.

Antiquado Designer de Web. O que não é necessariamente ruim.

Talvez este seja um tópico coberto, mas como você consegue 98-99% de chance de vitória do HRC se a cauda esquerda do histograma está abaixo de 270? Isso representa apenas 1-2% dos resultados totais?

discutido um pouco abaixo e outros posts. Resposta curta: a previsão PEC não usa o histograma para fazer previsões. Apenas & # 8220 quais & # 8217 são as chances de MM & gt0 no dia da eleição & # 8221, onde o MM é calculado apenas usando a mediana do histograma. Não muda muito as coisas nesta eleição, mas talvez algo em que pensar no futuro.

Boa entrevista no MSNBC. Todos os pontos positivos foram feitos.

Oi Sam, por que o número final do PEC & # 8217s de 323 EV para HRC caiu esta manhã para 307? Você colocou NC na coluna DJT?

O que você quer apostar que o Trumpster vai reclamar e reclamar de uma eleição fraudada porque ganhou tantos estados quanto Clinton?

A cada eleição que os democratas ganham, recebo um e-mail pós-eleitoral de um primo que mostra que a área territorial dos distritos vencidos pelos republicanos excede em muito a área territorial dos distritos vencidos pelos democratas, como se a terra, e não as pessoas, tivesse votado.

Dr. Wang, agradeço seu comportamento firme, estável e elegante durante toda esta eleição. Obrigado por me dar um lugar para ir que é sensato quando se trata de política. Você faz maravilhas para a psique!


Conteúdo

O primeiro exemplo conhecido de uma pesquisa de opinião foi uma contagem das preferências dos eleitores relatada pelo Raleigh Star e North Carolina State Gazette e a Wilmington American Watchman e Delaware Advertiser antes da eleição presidencial de 1824, [1] mostrando Andrew Jackson liderando John Quincy Adams por 335 votos a 169 na disputa pela presidência dos Estados Unidos. Como Jackson ganhou o voto popular naquele estado e em todo o país, esses votos de palha gradualmente se tornaram mais populares, mas permaneceram locais, geralmente um fenômeno municipal. Em 1916, The Literary Digest embarcou em uma pesquisa nacional (em parte como um exercício de aumento de circulação) e previu corretamente a eleição de Woodrow Wilson como presidente. Enviando milhões de cartões postais e simplesmente contando as devoluções, The Literary Digest previu corretamente as vitórias de Warren Harding em 1920, Calvin Coolidge em 1924, Herbert Hoover em 1928 e Franklin Roosevelt em 1932.

Então, em 1936, sua pesquisa com 2,3 milhões de eleitores sugeriu que Alf Landon venceria a eleição presidencial, mas Roosevelt foi reeleito por uma vitória esmagadora. O erro foi causado principalmente pelo viés de participação. Aqueles que favoreciam Landon estavam mais entusiasmados em participar da votação. Além disso, a pesquisa superestimou os americanos mais ricos que tendiam a ter simpatias republicanas. [2] Ao mesmo tempo, George Gallup conduziu uma pesquisa muito menor (mas com base científica), na qual ele pesquisou uma amostra demograficamente representativa. A organização Gallup previu corretamente a vitória esmagadora de Roosevelt, assim como outro pesquisador inovador, Archibald Crossley. The Literary Digest logo saiu do mercado, enquanto as pesquisas começaram a decolar. [3]

Elmo Roper foi outro pioneiro americano em previsões políticas usando pesquisas científicas. [4] Ele previu a reeleição do presidente Franklin D. Roosevelt três vezes, em 1936, 1940 e 1944. Louis Harris estava no campo da opinião pública desde 1947, quando ingressou na empresa Elmo Roper, e mais tarde tornou-se sócio.

Em setembro de 1938, Jean Stoetzel, depois de conhecer Gallup, criou o IFOP, o Institut Français d'Opinion Publique, como o primeiro instituto europeu de pesquisa em Paris e iniciou as pesquisas políticas no verão de 1939 com a pergunta "Por que morrer por Danzig?", Procurando apoio popular ou dissidência com esta pergunta feita pelo político apaziguador e futuro colaboracionista Marcel Déat.

Gallup lançou uma subsidiária no Reino Unido que, quase sozinha, previu corretamente a vitória do Trabalhismo nas eleições gerais de 1945, ao contrário de praticamente todos os outros comentaristas, que esperavam uma vitória do Partido Conservador, liderado por Winston Churchill. As potências de ocupação aliadas ajudaram a criar institutos de pesquisa em todas as zonas de ocupação ocidental da Alemanha em 1947 e 1948 para melhor orientar a desnazificação. Na década de 1950, vários tipos de pesquisas se espalharam pela maioria das democracias.

Em uma perspectiva de longo prazo, a publicidade havia sofrido forte pressão no início dos anos 1930. A Grande Depressão forçou as empresas a reduzir drasticamente seus gastos com publicidade. Demissões e reduções eram comuns em todas as agências. Além disso, o New Deal promoveu agressivamente o consumismo e minimizou o valor (ou a necessidade) da propaganda. O historiador Jackson Lears argumenta que "No final dos anos 1930, porém, os anunciantes corporativos começaram um contra-ataque bem-sucedido contra seus críticos". Eles reabilitaram o conceito de soberania do consumidor inventando pesquisas científicas de opinião pública e tornando-o a peça central de suas próprias pesquisas de mercado, bem como a chave para entender a política. George Gallup, o vice-presidente da Young e Rubicam, e vários outros especialistas em publicidade, abriram o caminho. Entrando na década de 1940, a indústria desempenhou um papel de liderança na mobilização ideológica do povo americano para lutar contra os nazistas e japoneses na Segunda Guerra Mundial. Como parte desse esforço, eles redefiniram o "American Way of Life" em termos de um compromisso com a livre iniciativa. "Os anunciantes", conclui Lears, "desempenharam um papel hegemônico crucial na criação da cultura de consumo que dominou a sociedade americana pós-Segunda Guerra Mundial." [5] [6]

Por muitos anos, as pesquisas de opinião foram mantidas por meio de telecomunicações ou contato pessoal. Os métodos e técnicas variam, embora sejam amplamente aceitos na maioria das áreas. Ao longo dos anos, as inovações tecnológicas também influenciaram os métodos de pesquisa, como a disponibilidade de pranchetas eletrônicas [7] e pesquisas baseadas na Internet. Os tipos verbais, de votação e processados ​​podem ser conduzidos com eficiência, em contraste com outros tipos de pesquisas, sistemáticas e matrizes complicadas, além dos procedimentos ortodoxos anteriores. [ citação necessária ]

A pesquisa de opinião se desenvolveu em aplicativos populares por meio do pensamento popular, embora as taxas de resposta de algumas pesquisas tenham diminuído. Além disso, o seguinte também levou a resultados diferenciadores: [4] Algumas organizações de pesquisa, como Angus Reid Public Opinion, YouGov e Zogby usam pesquisas da Internet, onde uma amostra é retirada de um grande painel de voluntários, e os resultados são ponderados para refletem a demografia da população de interesse. Em contraste, as pesquisas populares da web baseiam-se em quem deseja participar, e não em uma amostra científica da população e, portanto, geralmente não são consideradas profissionais.

Recentemente, métodos de aprendizagem estatística foram propostos a fim de explorar conteúdo de mídia social (como postagens na plataforma de microblog Twitter) para modelar e prever pesquisas de intenção de voto. [8] [9]

As pesquisas também podem ser usadas no campo de relações públicas. No início da década de 1920, os especialistas em relações públicas descreveram seu trabalho como uma via de mão dupla. Seu trabalho seria apresentar ao público os interesses mal interpretados de grandes instituições. Eles também avaliariam os interesses tipicamente ignorados do público por meio de pesquisas.

Enquetes de benchmark Editar

UMA pesquisa de referência geralmente é a primeira pesquisa realizada em uma campanha. Freqüentemente, é realizada antes de um candidato anunciar sua candidatura ao cargo, mas às vezes acontece imediatamente após esse anúncio, depois que ele teve alguma oportunidade de levantar fundos. Esta é geralmente uma pesquisa curta e simples de prováveis ​​eleitores.

UMA pesquisa de referência serve a vários propósitos para uma campanha, seja uma campanha política ou algum outro tipo de campanha. Primeiro, dá ao candidato uma imagem de sua posição com o eleitorado antes de qualquer campanha ocorrer. Se a votação for feita antes do anúncio do cargo, o candidato pode usá-la para decidir se deve ou não concorrer ao cargo. Em segundo lugar, mostra onde estão seus pontos fracos e fortes em duas áreas principais. O primeiro é o eleitorado. UMA pesquisa de referência mostra a eles que tipo de eleitores eles certamente ganharão, aqueles que certamente perderão e todos os que estão entre esses dois extremos. Isso permite que a campanha saiba quais eleitores são persuadíveis para que possam gastar seus recursos limitados da maneira mais eficaz. Em segundo lugar, pode dar a eles uma ideia de quais mensagens, ideias ou slogans são mais fortes junto ao eleitorado. [10]

Editar votações Brushfire

Pesquisas Brushfire são pesquisas realizadas durante o período entre o pesquisa de referência e sondagens de rastreamento. O número de sondagens brushfire tirado por uma campanha é determinado pelo quão competitiva a corrida é e quanto dinheiro a campanha tem para gastar. Essas pesquisas geralmente se concentram nos prováveis ​​eleitores e a duração da pesquisa varia de acordo com o número de mensagens testadas.

Pesquisas Brushfire são usados ​​para vários fins. Primeiro, permite que o candidato saiba se ele fez algum progresso na votação, quanto progresso foi feito e em que dados demográficos ele está ganhando ou perdendo terreno. Em segundo lugar, é uma forma de a campanha testar uma variedade de mensagens, tanto positivas quanto negativas, sobre si mesma e sobre seu (s) oponente (s). Isso permite que a campanha saiba quais mensagens funcionam melhor com determinados dados demográficos e quais mensagens devem ser evitadas. As campanhas costumam usar essas pesquisas para testar possíveis mensagens de ataque que seu oponente pode usar e possíveis respostas a esses ataques. A campanha pode então gastar algum tempo preparando uma resposta eficaz a quaisquer ataques prováveis. Em terceiro lugar, esse tipo de pesquisa pode ser usado por candidatos ou partidos políticos para convencer os adversários primários a desistir de uma corrida e apoiar um candidato mais forte.

Edição de sondagens de rastreamento

UMA pesquisa de rastreamento ou votação contínua é uma enquete em que as respostas são obtidas em vários períodos consecutivos, por exemplo, diariamente, e os resultados são calculados usando uma média móvel das respostas que foram coletadas ao longo de um número fixo dos períodos mais recentes, por exemplo, os últimos cinco dias . [11] Neste exemplo, os próximos resultados calculados usarão dados para cinco dias contando regressivamente a partir do dia seguinte, ou seja, os mesmos dados de antes, mas com os dados do dia seguinte incluídos, e sem os dados do sexto dia anterior aquele dia.

No entanto, essas pesquisas às vezes estão sujeitas a flutuações dramáticas e, portanto, as campanhas políticas e os candidatos são cautelosos ao analisar seus resultados. Um exemplo de pesquisa de rastreamento que gerou polêmica sobre sua precisão é aquela realizada durante a eleição presidencial dos Estados Unidos de 2000, pela Organização Gallup. Os resultados de um dia mostraram o candidato democrata Al Gore com uma vantagem de onze pontos sobre o candidato republicano George W. Bush. Então, uma pesquisa subsequente conduzida apenas dois dias depois mostrou Bush à frente de Gore por sete pontos. Logo se determinou que a volatilidade dos resultados se devia, pelo menos em parte, a uma distribuição desigual de eleitores democratas e republicanos nas amostras. Embora a Organização Gallup argumentasse que a volatilidade nas pesquisas era uma representação genuína do eleitorado, outras organizações de pesquisa tomaram medidas para reduzir essas grandes variações em seus resultados. Uma dessas etapas incluiu a manipulação da proporção de democratas e republicanos em qualquer amostra, mas esse método é objeto de controvérsia. [12]

Com o tempo, várias teorias e mecanismos foram oferecidos para explicar resultados de pesquisas errados. Alguns deles refletem erros por parte dos pesquisadores, muitos deles são de natureza estatística. Outros culpam os entrevistados por não darem respostas sinceras (por exemplo., o efeito Bradley, o fator conservador tímido) podem ser mais controversos.

Margem de erro devido à edição de amostragem

Pesquisas baseadas em amostras de populações estão sujeitas a erros de amostragem que refletem os efeitos do acaso e da incerteza no processo de amostragem. As pesquisas de amostragem baseiam-se na lei dos grandes números para medir as opiniões de toda a população com base apenas em um subconjunto e, para esse fim, o tamanho absoluto da amostra é importante, mas a porcentagem de toda a população não é importante (a menos que aconteça estar próximo ao tamanho da amostra). A possível diferença entre a amostra e a população inteira é freqüentemente expressa como uma margem de erro - geralmente definida como o raio de um intervalo de confiança de 95% para uma estatística particular. Um exemplo é a porcentagem de pessoas que preferem o produto A versus o produto B. Quando uma única margem de erro global é relatada para uma pesquisa, ela se refere à margem máxima de erro para todas as porcentagens relatadas usando a amostra completa da pesquisa. Se a estatística for uma porcentagem, essa margem máxima de erro pode ser calculada como o raio do intervalo de confiança para uma porcentagem relatada de 50%. Outros sugerem que uma enquete com uma amostra aleatória de 1.000 pessoas tem margem de erro amostral de ± 3% para a porcentagem estimada de toda a população.

Uma margem de erro de 3% significa que se o mesmo procedimento for usado um grande número de vezes, 95% das vezes a verdadeira média da população estará dentro da estimativa da amostra mais ou menos 3%. A margem de erro pode ser reduzida usando uma amostra maior; no entanto, se um pesquisador deseja reduzir a margem de erro para 1%, ele precisaria de uma amostra de cerca de 10.000 pessoas. [13] Na prática, os pesquisadores precisam equilibrar o custo de uma grande amostra contra a redução no erro de amostragem e um tamanho de amostra de cerca de 500-1.000 é um compromisso típico para pesquisas políticas. (Observe que para obter respostas completas, pode ser necessário incluir milhares de participantes adicionais.) [14] [15]

Outra forma de reduzir a margem de erro é confiar nas médias das pesquisas. Isso pressupõe que o procedimento é semelhante o suficiente entre muitas pesquisas diferentes e usa o tamanho da amostra de cada pesquisa para criar uma média de pesquisas. [16] Um exemplo de média de votação pode ser encontrado aqui: Média de votação da eleição presidencial de 2008. Outra fonte de erro provém de modelos demográficos defeituosos de pesquisadores que avaliam suas amostras por variáveis ​​específicas, como a identificação do partido em uma eleição. Por exemplo, se você presumir que a divisão da população dos EUA por identificação partidária não mudou desde a eleição presidencial anterior, você pode subestimar uma vitória ou derrota de um candidato de partido específico que viu um aumento ou declínio em seu registro partidário em relação a o ciclo de eleição presidencial anterior.

Um cuidado é que uma estimativa de uma tendência está sujeita a um erro maior do que uma estimativa de um nível. Isso ocorre porque se estimamos a mudança, a diferença entre dois números X e Y, então é preciso lidar com erros em ambos X e Y. Um guia aproximado é que, se a mudança na medição ficar fora da margem de erro, vale a pena dar atenção.

Edição de polarização de não resposta

Como algumas pessoas não atendem chamadas de estranhos ou se recusam a responder à pesquisa, as amostras das pesquisas podem não ser representativas de uma população devido a um viés de não resposta. As taxas de resposta têm diminuído e caíram para cerca de 10% nos últimos anos. [17] Por causa desse viés de seleção, as características daqueles que concordam em ser entrevistados podem ser marcadamente diferentes daqueles que recusam. Ou seja, a amostra real é uma versão tendenciosa do universo que o pesquisador deseja analisar. Nesses casos, o viés introduz novos erros, de uma forma ou de outra, que se somam aos erros causados ​​pelo tamanho da amostra. O erro devido ao viés não se torna menor com tamanhos de amostra maiores, porque pegar um tamanho de amostra maior simplesmente repete o mesmo erro em uma escala maior. Se as pessoas que se recusam a responder, ou nunca são alcançadas, têm as mesmas características das pessoas que respondem, então os resultados finais devem ser imparciais. Se as pessoas que não respondem têm opiniões diferentes, os resultados são tendenciosos. Em termos de pesquisas eleitorais, os estudos sugerem que os efeitos de viés são pequenos, mas cada empresa de pesquisa tem suas próprias técnicas de ajuste de pesos para minimizar o viés de seleção. [18] [19]

Edição de polarização de resposta

Os resultados da pesquisa podem ser afetados por viés de resposta, onde as respostas dadas pelos entrevistados não refletem suas verdadeiras crenças. Isso pode ser deliberadamente planejado por pesquisadores inescrupulosos a fim de gerar um determinado resultado ou agradar seus clientes, mas na maioria das vezes é o resultado da formulação detalhada ou da ordem das perguntas (veja abaixo). Os respondentes podem tentar manipular deliberadamente o resultado de uma votação, por exemplo, defendendo uma posição mais extrema do que eles realmente defendem, a fim de impulsionar seu lado da discussão ou dar respostas rápidas e mal pensadas a fim de apressar o fim de seu questionamento. Os entrevistados também podem se sentir sob pressão social para não dar uma resposta impopular. Por exemplo, os entrevistados podem não querer admitir atitudes impopulares como racismo ou sexismo e, portanto, as pesquisas podem não refletir a verdadeira incidência dessas atitudes na população. No jargão político americano, esse fenômeno costuma ser chamado de efeito Bradley. Se os resultados das pesquisas forem amplamente divulgados, esse efeito pode ser ampliado - um fenômeno comumente referido como a espiral do silêncio.

O uso do sistema de votação por pluralidade (selecione apenas um candidato) em uma votação coloca um viés não intencional na votação, uma vez que as pessoas que favorecem mais de um candidato não podem indicar isso. O fato de terem de escolher apenas um candidato viesa a votação, fazendo com que ela favoreça o candidato mais diferente dos demais, enquanto desfavorece candidatos semelhantes a outros candidatos. O sistema de votação por pluralidade também influencia as eleições da mesma maneira.

Algumas pessoas que estão respondendo podem não entender as palavras usadas, mas podem desejar evitar o constrangimento de admitir isso, ou o mecanismo de votação pode não permitir esclarecimentos, então eles podem fazer uma escolha arbitrária. Alguma porcentagem das pessoas também responde caprichosamente ou por aborrecimento por ter sido entrevistada. Isso resulta em talvez 4% dos americanos relatando que foram decapitados pessoalmente. [20]

Redação das questões Editar

Entre os fatores que impactam os resultados das Pesquisas de Opinião, estão a redação e a ordem das perguntas feitas pelo pesquisador. As perguntas que afetam intencionalmente a resposta de um entrevistado são chamadas de perguntas dirigidas. Indivíduos e / ou grupos usam esses tipos de perguntas em pesquisas para obter respostas favoráveis ​​aos seus interesses. [21]

Por exemplo, é mais provável que o público indique apoio a uma pessoa que é descrita pelo agrimensor como um dos "principais candidatos". Esta descrição é "líder", pois indica um viés sutil para aquele candidato, uma vez que implica que os outros na corrida não são contendores sérios. Além disso, as perguntas introdutórias geralmente contêm, ou faltam, certos fatos que podem influenciar a resposta do entrevistado. Perguntas argumentativas também podem afetar o resultado de uma pesquisa. Esses tipos de perguntas, dependendo de sua natureza, seja positiva ou negativa, influenciam as respostas dos entrevistados para refletir o tom da (s) pergunta (s) e gerar uma determinada resposta ou reação, em vez de avaliar o sentimento de uma maneira imparcial. [22]

Nas pesquisas de opinião, também existem "perguntas carregadas", também conhecidas como "perguntas capciosas". Este tipo de pergunta introdutória pode referir-se a uma questão incômoda ou controversa e / ou presumir automaticamente que o assunto da pergunta está relacionado ao (s) respondente (s) ou que eles têm conhecimento sobre o assunto. Da mesma forma, as perguntas são formuladas de forma a limitar as respostas possíveis, geralmente sim ou não. [23]

Outro tipo de pergunta que pode produzir resultados imprecisos são as "Perguntas duplo-negativas". Estes são mais frequentemente o resultado de erro humano, ao invés de manipulação intencional. Um exemplo é uma pesquisa feita em 1992 pela Organização Roper, a respeito do Holocausto. A pergunta dizia: "Parece possível ou impossível para você que o extermínio dos judeus pelos nazistas nunca aconteceu?" A formulação confusa desta pergunta levou a resultados imprecisos que indicaram que 22 por cento dos entrevistados acreditavam que parecia possível que o Holocausto nunca tivesse acontecido. Quando a pergunta foi reformulada, um número significativamente menor de entrevistados (apenas 1 por cento) expressou o mesmo sentimento. [24]

Assim, as comparações entre as pesquisas muitas vezes se resumem à formulação da pergunta. Em algumas questões, a formulação das perguntas pode resultar em diferenças bastante pronunciadas entre as pesquisas. [25] [26] Isso também pode, no entanto, ser resultado de sentimentos legitimamente conflitantes ou atitudes em evolução, ao invés de uma pesquisa mal construída. [27]

Uma técnica comum para controlar esse viés é girar a ordem em que as perguntas são feitas. Muitos pesquisadores também dividem a amostra. Isso envolve duas versões diferentes de uma pergunta, com cada versão apresentada a metade dos respondentes.

Os controles mais eficazes, usados ​​por pesquisadores de atitude, são:

  • fazer perguntas suficientes para permitir que todos os aspectos de um problema sejam cobertos e para controlar os efeitos devido à forma da pergunta (como palavras positivas ou negativas), a adequação do número sendo estabelecida quantitativamente com medidas psicométricas, como coeficientes de confiabilidade, e
  • analisar os resultados com técnicas psicométricas que sintetizam as respostas em alguns escores confiáveis ​​e detectam perguntas ineficazes.

Esses controles não são amplamente usados ​​na indústria de pesquisas. [ porque? ] No entanto, como é importante que as perguntas para testar o produto tenham alta qualidade, os metodologistas de pesquisas trabalham em métodos para testá-las. Os testes empíricos fornecem informações sobre a qualidade do questionário, alguns podem ser mais complexos do que outros. Por exemplo, o teste de um questionário pode ser feito:

  • conduzindo entrevista cognitiva. Ao perguntar a uma amostra de potenciais respondentes sobre sua interpretação das perguntas e uso do questionário, um pesquisador pode
  • realizar um pequeno pré-teste do questionário, usando um pequeno subconjunto de respondentes-alvo. Os resultados podem informar um pesquisador sobre erros, como perguntas ausentes ou erros lógicos e de procedimento.
  • estimar a qualidade da medição das questões. Isso pode ser feito, por exemplo, usando modelos de teste-reteste, [28] quase-simplex, [29] ou modelos mutlitrait-multimétodo. [30]
  • prever a qualidade de medição da questão. Isso pode ser feito usando o software Survey Quality Predictor (SQP). [31]

Fachadas involuntárias e falsas correlações Editar

Uma das críticas às pesquisas de opinião é que as suposições da sociedade de que as opiniões entre as quais não há ligação lógica são "atitudes correlatas" podem empurrar as pessoas com uma opinião para um grupo que as força a fingir ter uma opinião supostamente ligada, mas na verdade não relacionada. Isso, por sua vez, pode fazer com que as pessoas que têm a primeira opinião afirmem nas pesquisas que têm a segunda opinião sem a possuírem, fazendo com que as pesquisas de opinião se tornem parte dos problemas de profecias autorrealizáveis. Tem sido sugerido que as tentativas de neutralizar opiniões antiéticas condenando opiniões supostamente ligadas podem favorecer os grupos que promovem as opiniões realmente antiéticas, forçando pessoas com opiniões supostamente ligadas a eles pelo ostracismo em outras partes da sociedade, tornando tais esforços contraproducentes, que não sejam enviados entre grupos que pressupõem segundas intenções uns dos outros e não têm permissão para expressar pensamento crítico consistente em qualquer lugar podem criar estresse psicológico porque os humanos são sapientes, e que espaços de discussão livres de suposições de segundas intenções por trás de opiniões específicas devem ser criados. Nesse contexto, a rejeição da suposição de que as pesquisas de opinião mostram ligações reais entre as opiniões é considerada importante. [32] [33]

Edição de viés de cobertura

Outra fonte de erro é a utilização de amostras não representativas da população em decorrência da metodologia utilizada, como foi a experiência de The Literary Digest em 1936. Por exemplo, a amostragem por telefone tem um erro embutido porque, em muitas vezes e lugares, aqueles com telefones geralmente eram mais ricos do que aqueles sem.

Em alguns lugares, muitas pessoas possuem apenas telefones celulares. Como os pesquisadores não podem usar máquinas de discagem automática para ligar para telefones celulares nos Estados Unidos (porque o proprietário do telefone pode ser cobrado por atender uma chamada [34]), esses indivíduos são normalmente excluídos das amostras de votação. Há a preocupação de que, se o subconjunto da população sem telefones celulares for muito diferente do restante da população, essas diferenças podem distorcer os resultados da pesquisa. [35]

As organizações de pesquisa desenvolveram muitas técnicas de ponderação para ajudar a superar essas deficiências, com vários graus de sucesso. Estudos com usuários de telefones celulares do Pew Research Center nos EUA, em 2007, concluíram que "os respondentes que usam apenas celular são diferentes dos respondentes de telefones fixos em aspectos importantes, (mas) eles não eram numerosos o suficiente nem diferentes o suficiente nas questões que examinamos para produzir uma mudança significativa nas estimativas gerais da pesquisa da população geral quando incluídas nas amostras de telefones fixos e ponderadas de acordo com os parâmetros do Censo dos EUA sobre as características demográficas básicas. " [36]

Essa questão foi identificada pela primeira vez em 2004, [37] mas só ganhou destaque durante as eleições presidenciais de 2008 nos Estados Unidos. [38] Em eleições anteriores, a proporção da população em geral que usava telefones celulares era pequena, mas como essa proporção aumentou, existe a preocupação de que as pesquisas apenas para telefones fixos não representem mais a população em geral. Em 2003, apenas 2,9% dos domicílios eram sem fio (apenas celulares), em comparação com 12,8% em 2006.[39] Isso resulta em "erro de cobertura". Muitas organizações de pesquisa selecionam sua amostra discando números de telefone aleatórios. No entanto, em 2008, houve uma tendência clara de pesquisas que incluíam telefones celulares em suas amostras de mostrar uma vantagem muito maior para Obama do que as que não o fizeram. [40] [41]

As fontes potenciais de viés são: [42]

  1. Algumas famílias usam apenas celulares e não têm telefone fixo. Isso tende a incluir minorias e eleitores mais jovens e ocorre com mais frequência nas áreas metropolitanas. Os homens são mais propensos a usar apenas telefones celulares em comparação com as mulheres.
  2. Algumas pessoas podem não ser contatáveis ​​por telefone fixo de segunda a sexta-feira e podem ser contatadas apenas por telefone celular.
  3. Algumas pessoas usam seus telefones fixos apenas para acessar a Internet e atendem chamadas apenas para seus celulares.

Algumas empresas de pesquisa tentaram contornar esse problema incluindo um "suplemento para celular". Existem vários problemas com a inclusão de telefones celulares em uma enquete telefônica:

  1. É difícil obter cooperação dos usuários de telefones celulares, porque em muitas partes dos Estados Unidos, os usuários são cobrados tanto pelas chamadas feitas quanto pelas recebidas. Isso significa que os pesquisadores tiveram que oferecer uma compensação financeira para obter cooperação.
  2. A lei federal dos EUA proíbe o uso de dispositivos de discagem automática para ligar para telefones celulares (Telephone Consumer Protection Act de 1991). Portanto, os números devem ser discados manualmente, o que é mais demorado e caro para os pesquisadores.

Edição das eleições gerais do Reino Unido de 1992

Um exemplo frequentemente citado de pesquisas de opinião que sucumbiram a erros ocorreu durante as eleições gerais de 1992 no Reino Unido. Apesar das organizações de pesquisa usarem metodologias diferentes, praticamente todas as pesquisas feitas antes da votação, e em menor medida, as pesquisas de boca de urna no dia da votação, mostraram uma vantagem para o Partido Trabalhista de oposição, mas a votação propiciou uma clara vitória à decisão Partido conservador.

Em suas deliberações após esse constrangimento, os pesquisadores apresentaram várias idéias para explicar seus erros, incluindo:

Os eleitores indecisos que mudaram de ideia pouco antes de votar tendiam a favorecer os conservadores, de modo que o erro não foi tão grande quanto parecia à primeira vista. Viés de não resposta Os eleitores conservadores tinham menos probabilidade de participar de pesquisas do que no passado e, portanto, estavam sub-representados. O fator conservador tímido Os conservadores sofreram um período sustentado de impopularidade como resultado de dificuldades econômicas e uma série de escândalos menores, levando a uma espiral de silêncio em que alguns partidários conservadores relutaram em revelar suas sinceras intenções aos pesquisadores.

A importância relativa desses fatores foi, e continua sendo, uma questão controversa, mas desde então as organizações de votação ajustaram suas metodologias e alcançaram resultados mais precisos em campanhas eleitorais subsequentes. [ citação necessária ]

Uma discussão abrangente desses vieses e como eles devem ser entendidos e mitigados está incluída em várias fontes, incluindo Dillman e Salant (1994). [43]

Um fracasso amplamente divulgado nas pesquisas de opinião nos Estados Unidos foi a previsão de que Thomas Dewey derrotaria Harry S. Truman nas eleições presidenciais de 1948 nos Estados Unidos. As principais organizações de pesquisa, incluindo Gallup e Roper, indicaram uma vitória esmagadora para Dewey. Também houve erros de votação substanciais nas eleições presidenciais de 1952, 1980, 1996, 2000 e 2016. [44]

No Reino Unido, a maioria das pesquisas falhou em prever as vitórias eleitorais conservadoras de 1970 e 1992, e a vitória trabalhista em fevereiro de 1974. Na eleição de 2015, praticamente todas as pesquisas previram um parlamento empatado com os trabalhistas e os conservadores pescoço a pescoço quando o resultado real foi uma clara maioria conservadora. Por outro lado, em 2017, parece ter ocorrido o contrário. A maioria das pesquisas previa um aumento da maioria conservadora, embora na realidade a eleição tenha resultado em um parlamento empatado com pluralidade conservadora. No entanto, algumas pesquisas previram corretamente esse resultado.

Na Nova Zelândia, as pesquisas que antecederam as eleições gerais de 1993 previram uma vitória confortável para o Partido Nacional do governo. No entanto, os resultados preliminares na noite da eleição mostraram um parlamento travado com o National com uma cadeira a menos que a maioria, levando o primeiro-ministro Jim Bolger a exclamando "maldito seja as pesquisas" na televisão nacional. [45] [46] A contagem oficial viu o National escolher Waitaki para manter a maioria de um assento e reformar o governo.

A mídia social hoje é um meio popular para os candidatos fazerem campanha e para medir a reação do público às campanhas. A mídia social também pode ser usada como um indicador da opinião do eleitor em relação à votação. Alguns estudos de pesquisa mostraram que as previsões feitas usando sinais de mídia social podem coincidir com as pesquisas de opinião tradicionais. [8] [9]

Em relação à eleição presidencial dos EUA em 2016, uma grande preocupação tem sido o efeito de histórias falsas espalhadas pelas redes sociais. As evidências mostram que a mídia social desempenha um grande papel no fornecimento de notícias: 62% dos adultos norte-americanos recebem notícias nas redes sociais. [47] Esse fato torna a questão das notícias falsas nas redes sociais mais pertinente. Outras evidências mostram que as notícias falsas mais populares foram mais amplamente compartilhadas no Facebook do que as notícias convencionais mais populares. Muitas pessoas que veem as notícias falsas relatam que acreditam nelas, e as notícias falsas mais discutidas tendem a favorecer Donald Trump em vez de Hillary Clinton . Como resultado desses fatos, alguns concluíram que, se não fosse por essas histórias, Donald Trump pode não ter vencido a eleição sobre Hillary Clinton. [48]

Efeito sobre os eleitores Editar

Ao fornecer informações sobre as intenções de voto, as pesquisas de opinião podem, às vezes, influenciar o comportamento dos eleitores, e em seu livro The Broken Compass, Peter Hitchens afirma que as pesquisas de opinião são, na verdade, um dispositivo para influenciar a opinião pública. [49] As várias teorias sobre como isso acontece podem ser divididas em dois grupos: efeitos bandwagon / underdog e votação estratégica ("tática").

Um efeito de movimento ocorre quando a pesquisa pede aos eleitores que apoiem o candidato que venceu. A ideia de que os eleitores são suscetíveis a tais efeitos é antiga, decorrente pelo menos de 1884 William Safire relatou que o termo foi usado pela primeira vez em um cartoon político na revista Puck Naquele ano. [50] Ele também permaneceu persistente, apesar da falta de corroboração empírica até o final do século 20. George Gallup se esforçou em vão tentando desacreditar essa teoria em sua época, apresentando pesquisas empíricas. Um recente metaestudo de pesquisa científica sobre esse tópico indica que a partir da década de 1980 o efeito Bandwagon é encontrado com mais frequência pelos pesquisadores. [51]

O oposto do efeito bandwagon é o efeito underdog. É frequentemente mencionado na mídia. Isso ocorre quando as pessoas votam, por simpatia, no partido que parece estar "perdendo" as eleições. Há menos evidências empíricas para a existência desse efeito do que para a existência do efeito bandwagon. [51]

A segunda categoria de teorias sobre como as pesquisas afetam diretamente a votação é chamada de votação estratégica ou tática. Essa teoria se baseia na ideia de que o eleitor vê o ato de votar como um meio de selecionar um governo. Assim, às vezes eles não escolherão o candidato de sua preferência com base em ideologia ou simpatia, mas outro candidato, menos preferido, por considerações estratégicas. Um exemplo pode ser encontrado nas eleições gerais de 1997 no Reino Unido. Como ele era então um ministro do Gabinete, acreditava-se que o eleitorado de Enfield Southgate de Michael Portillo era um assento seguro, mas as pesquisas de opinião mostraram que o candidato trabalhista Stephen Twigg ganhava apoio constantemente, o que pode ter levado eleitores indecisos ou partidários de outros partidos a apoiar Twigg na ordem para remover Portillo. Outro exemplo é o efeito bumerangue, em que os prováveis ​​apoiadores do candidato que venceu sentem que as chances são mínimas e que seu voto não é obrigatório, permitindo assim que outro candidato vença.

Além disso, Mark Pickup, em Cameron Anderson e Laura Stephenson's Comportamento de votação no Canadá, descreve três respostas "comportamentais" adicionais que os eleitores podem apresentar quando confrontados com os dados das pesquisas. O primeiro é conhecido como efeito de "ação de sinalização", que afirma que os dados da pesquisa são usados ​​como um "proxy" para obter informações sobre os candidatos ou partidos. A aceitação da sugestão é "baseada no fenômeno psicológico de usar heurísticas para simplificar uma decisão complexa" (243). [52]

A segunda, descrita pela primeira vez por Petty e Cacioppo (1996), é conhecida como teoria da "resposta cognitiva". Essa teoria afirma que a resposta do eleitor a uma pesquisa pode não corresponder à sua concepção inicial da realidade eleitoral. Em resposta, o eleitor provavelmente gerará uma "lista mental" na qual criará as razões para a perda ou ganho de um partido nas pesquisas. Isso pode reforçar ou mudar sua opinião sobre o candidato e, assim, afetar o comportamento eleitoral. Terceiro, a possibilidade final é uma "resposta comportamental" semelhante a uma resposta cognitiva. A única diferença saliente é que o eleitor irá buscar novas informações para formar sua "lista mental", ficando assim mais informado sobre a eleição. Isso pode afetar o comportamento de votação.

Esses efeitos indicam como as pesquisas de opinião podem afetar diretamente as escolhas políticas do eleitorado. Mas, direta ou indiretamente, outros efeitos podem ser pesquisados ​​e analisados ​​em todos os partidos políticos. A forma de enquadramento da mídia e as mudanças na ideologia do partido também devem ser levadas em consideração. A pesquisa de opinião, em alguns casos, é uma medida de viés cognitivo, que pode ser considerada e tratada de maneira variável e apropriada em suas várias aplicações.

Efeito sobre os políticos Editar

A partir da década de 1980, pesquisas de rastreamento e tecnologias relacionadas começaram a ter um impacto notável sobre os líderes políticos dos EUA. [53] De acordo com Douglas Bailey, um republicano que ajudou a dirigir a campanha presidencial de Gerald Ford em 1976, "Não é mais necessário que um candidato político adivinhe o que o público pensa. Ele pode [descobrir] com uma pesquisa de monitoramento noturno. Então é não é mais provável que os líderes políticos vão liderar. Em vez disso, eles vão seguir. " [53]

Algumas jurisdições em todo o mundo restringem a publicação dos resultados das pesquisas de opinião, especialmente durante o período em torno de uma eleição, a fim de evitar que os resultados possivelmente errôneos afetem as decisões dos eleitores. Por exemplo, no Canadá, é proibido publicar os resultados de pesquisas de opinião que identifiquem partidos políticos ou candidatos específicos nos últimos três dias antes do encerramento de uma votação. [54]

No entanto, a maioria das nações democráticas ocidentais não apóia a proibição total da publicação de pesquisas de opinião pré-eleitorais, a maioria delas não tem regulamentação e algumas só a proíbem nos dias ou horas finais até o fechamento da votação relevante. [55] Uma pesquisa da Comissão Real de Reforma Eleitoral do Canadá relatou que o período de proibição de publicação dos resultados da pesquisa diferia amplamente em diferentes países. Dos 20 países examinados, 3 proíbem a publicação durante todo o período de campanha, enquanto outros proíbem por um período mais curto, como o período de votação ou as últimas 48 horas antes do encerramento de uma votação. [54] Na Índia, a Comissão Eleitoral proibiu nas 48 horas antes do início da votação.


Eleição 2016: Pesquisas de saída

Os dados de 2016 foram coletados pela Edison Research para o National Election Pool, um consórcio da ABC News, The Associated Press, CBSNews, CNN, Fox News e NBC News. A pesquisa eleitoral é baseada em questionários respondidos por 24.537 eleitores que deixaram 350 lugares de votação nos Estados Unidos no dia da eleição, incluindo 4.398 entrevistas por telefone com eleitores adiantados e ausentes.

Em 2012, 2008 e 2004, a votação de saída foi conduzida por Edison / Mitofsky em 1996 e 2000 pela Voter News Services em 1992 pela Voter Research and Surveys e nos anos anteriores pelo The New York Times e CBS News.

Comparações diretas de ano para ano devem levar em consideração as diferenças em como as perguntas são feitas. Raça e sexo foram determinados por entrevistadores em pesquisas anteriores a 1984. Candidatos independentes ou de terceiros não são mostrados.

A escala da população é representativa do número de eleitores em cada categoria.

* A mudança é mostrada em pontos percentuais. Quando dados comparáveis ​​estão disponíveis, esta medida combina a mudança no apoio republicano e a mudança no apoio democrata na eleição anterior.


Q & # 038A: Pesquisas políticas e as eleições de 2016

Os eleitores votaram em um corpo de bombeiros em Alhambra, Califórnia, em 8 de novembro de 2016. (Ringo Chiu / AFP / Getty Images)

O resultado da eleição presidencial de 2016 surpreendeu muita gente - não menos importante, os muitos pesquisadores políticos e analistas que o cobriram. Hoje, a Associação Americana para Pesquisa de Opinião Pública (AAPOR), a organização líder de pesquisadores de pesquisa do país, divulgou um relatório muito aguardado que examina as pesquisas durante as longas campanhas eleitorais primárias e gerais do ano passado.

Courtney Kennedy, diretora de pesquisas do Pew Research Center

Courtney Kennedy, diretora de pesquisas do Pew Research Center & # 8217s, presidiu a força-tarefa da AAPOR que produziu o relatório. Recentemente, conversamos com Kennedy para discutir suas descobertas e recomendações. A conversa foi condensada e editada para maior clareza e concisão.

Desde a vitória de Donald Trump sobre Hillary Clinton no ano passado, houve muitas críticas ao desempenho e à confiabilidade das pesquisas. Foi esse o ímpeto para este relatório?

Na verdade, esse comitê foi organizado em maio de 2016, meses antes de qualquer um de nós ter a menor ideia de que o ano passado seria um ano particularmente incomum para votação. A intenção original era bastante direta: avaliar o desempenho das pesquisas, tanto na temporada das primárias quanto nas eleições gerais, para comparar como eles se saíram em relação aos anos anteriores e, na medida em que os dados o suportassem, avaliar se certos tipos de pesquisas - online versus telefone, ao vivo versus automatizado - teve melhor ou pior desempenho do que outros.

Mas por volta da meia-noite de 8 de novembro, ficou claro que o que o comitê precisava fazer havia mudado. Não poderíamos simplesmente fazer isso muito técnico, tipo de relatório "qual foi o desvio médio". Além disso, precisávamos considerar outra questão: “Por que as pesquisas parecem subestimar sistematicamente o apoio a Donald Trump?” Já havia uma série de hipóteses flutuando - como o chamado efeito “tímido Trump” (apoiadores de Trump estando menos dispostos do que outros a revelar seu apoio a um entrevistador), não resposta diferencial (apoiadores de Trump sendo menos propensos a participar em pesquisas), coisas dessa natureza - e nos sentimos obrigados a assumir essa peça adicional.

O relatório observa que, embora as pesquisas nacionais geralmente tenham chegado bem perto do voto popular nacional (que Clinton ganhou por 2,1 pontos percentuais sobre Trump), o desempenho das pesquisas em nível estadual - onde as eleições presidenciais são realmente decididas - foi muito spottier. Que razões você encontrou para isso?

Encontramos evidências para múltiplas causas potenciais. Um fator que acho que afetou a todos que estavam votando nos estados do campo de batalha é a legítima mudança tardia na preferência do eleitor na última semana antes do dia da eleição. Os dados sobre isso têm suas limitações, mas a melhor fonte é a pesquisa de votação do National Election Pool & # 8217s, que traz uma pergunta sobre quando os eleitores decidiram em quem votar na corrida presidencial. Isso mostrou várias oscilações de cerca de 20 pontos a favor de Trump entre os eleitores que se decidiram na última semana. Você realmente não viu isso nacionalmente, mas na Pensilvânia, Michigan, Wisconsin e até na Flórida, você viu o que parece ser um movimento dramático.

Isso é uma espécie de descoberta de boas / más notícias para os pesquisadores. A boa notícia é que, se você entrevistasse pessoas em um determinado momento e elas mudassem de ideia vários dias depois, a pesquisa não teria detectado isso. Isso não é uma falha na pesquisa, exceto talvez com o período de campo em que o pesquisador decidiu fazer a coleta de dados. Mas não há nada que esteja necessariamente errado se o que estava gerando a maior parte do erro fossem apenas mudanças de opinião honestas.

O que mais você encontrou em nível estadual?

Outra descoberta interessante teve a ver com os entrevistados e o nível de educação # 8217. Uma série de estudos mostrou que, em geral, as pessoas com níveis mais elevados de educação formal são mais propensas a responder às pesquisas - é uma descoberta muito robusta. Lugares como o Pew Research Center e outros sabem disso há anos e tratamos disso com nossa ponderação estatística - isto é, perguntamos às pessoas qual é seu nível de educação e alinhamos nossos dados de pesquisa para que correspondam à população dos EUA em educação. E acho que muitos de nós presumimos que essa era uma prática comum na indústria - que, grosso modo, todo mundo estava fazendo isso. E não foi isso que encontramos. No nível estadual, na maioria das vezes, as pesquisas não estavam sendo ajustadas para a educação.

Agora, em algumas eleições, como em 2012, isso não faria diferença, porque os de educação muito baixa e os de educação muito alta votaram quase da mesma forma. Mas 2016 foi drasticamente diferente - havia uma relação linear bastante forte entre educação e voto presidencial. E isso significava que, se você tivesse muitos formados em sua pesquisa, o que praticamente todos nós temos, e você não tivesse considerado o peso adequado, quase certamente superestimaria o apoio a Clinton.

Houve algum fator possível para o qual você não encontrou evidências?

sim. Considere a hipótese de que há um segmento da base de apoio do Trump que não participa das pesquisas. Se isso for verdade, isso é um grande problema para organizações como a nossa, e precisamos estudar isso e entender se quisermos consertá-lo. Mas procuramos evidências disso e não encontramos.

Se for verdade que está faltando um segmento da base de apoio do Trump, esperaríamos encontrar - sem fazer nenhuma ponderação extravagante, apenas olhando os dados brutos - que as pessoas em partes mais rurais e vermelhas do país estariam sub-representado. E não descobrimos que, se alguma coisa, eles estavam um pouco super-representados. Fizemos várias coisas com um olhar crítico em busca desses tipos de problemas e não os encontramos. E isso me deu uma garantia real de que, fundamentalmente, não é que o processo de fazer pesquisas tenha sido quebrado no ano passado.

O que a profissão pode fazer, se é que pode fazer alguma coisa, para resolver os problemas que o comitê encontrou nas pesquisas estaduais e locais, especialmente considerando que tantos jornais e emissoras de TV que os patrocinaram historicamente não podem mais se dar ao luxo de fazê-lo no mesmo nível?

Há muitas evidências que mostram que os recursos que as organizações de notícias têm para pesquisas parecem estar diminuindo com o tempo, e isso acarreta duas coisas, eu acho: há menos organizações de notícias fazendo pesquisas, e aquelas que o fazem - especialmente as organizações de notícias locais - são usando metodologia de baixíssimo custo. O que o relatório mostra é que há diferenças importantes de desenho entre as pesquisas nacionais, que tendem a ter muitos recursos, e as pesquisas estaduais, que tendem a ser feitas com muito mais rapidez, usando métodos mais automatizados e com menos recursos. As pesquisas estaduais têm metade da probabilidade de as pesquisas nacionais terem entrevistadores ao vivo, e elas têm cerca de metade da probabilidade de terem ajustado para educação em sua ponderação, o que sabemos ser importante. Portanto, existem essas coisas estruturais que parecem ter agravado a lacuna de desempenho entre as pesquisas estaduais e as nacionais. Sabemos que, em média, eles estão agindo de forma diferente e de maneiras que produziram um erro maior nesta eleição. Também é verdade que, com o tempo, você apenas verá que há mais erros nas pesquisas em nível estadual.

Então, eu poderia imaginar que uma associação profissional como a AAPOR pudesse investigar se isso poderia ser resolvido, seja por meio da educação profissional ou mesmo tentando organizar financiamento para pesquisas mais rigorosas em nível estadual, conduzidas bem perto do dia das eleições, a fim de pegar pessoas que mudar de ideia tarde. Isso obviamente seria feito por pesquisadores que usam protocolos de ponderação muito sofisticados e de última geração, para que você não tenha coisas como este acidente educacional. Não está claro se isso resolveria completamente o problema, mas pelo menos você teria uma infusão de pesquisas de alta qualidade naquele conjunto de pesquisas que, em média, são feitas de forma bastante barata.

Outra parte do ciclo eleitoral de 2016 foi a proeminência, mesmo além das próprias pesquisas individuais, das operações de análise de dados e sites de notícias que agregaram pesquisas e as usaram não apenas para prever o resultado final, mas para dar probabilidades muito precisas de que Clinton ou Trump venceria. Quão apropriado ou útil é usar enquetes como ferramentas de previsão?

As pesquisas não foram projetadas para produzir precisão na ordem de & # 8220 mais ou menos tem XX% de chance de vencer. & # 8221 Na verdade, havia uma certa diversidade de opiniões no comitê sobre esse assunto: alguns tendiam a ser mais agressivo ao enfatizar aquela distinção entre os preditores e os outros pesquisadores nem tanto.

Mas existe uma distinção. Pesquisa e prognóstico são realmente duas empresas diferentes. Uma pesquisa de opinião pública bem feita pode dizer qual era a opinião durante o tempo em que a entrevista foi feita, mas isso realmente não fala de uma maneira precisa sobre o comportamento futuro. Já foi dito antes, mas vale a pena repetir: uma votação é um instantâneo no tempo, não uma forma de prever o que vai acontecer. Como dizemos no relatório, parece necessário mais cautela e humildade para qualquer pessoa que faça alegações sobre o resultado provável de uma eleição com base parcial ou total nos dados da pesquisa.

As pesquisas podem ser úteis para ajudar a responder a questões importantes sobre o que está motivando os eleitores, por que as pessoas votam ou não votam, como se sentem sobre as políticas em debate, como se sentem sobre os próprios candidatos. Todas essas perguntas são mais do que merecedoras de respostas sérias, e é para isso que as pesquisas são realmente mais bem projetadas.

Então, as pesquisas ainda podem ser confiáveis, apesar do que aconteceu no ano passado?

Eu acredito que eles podem. Em primeiro lugar, vale ressaltar que o desempenho das pesquisas eleitorais não é um bom indicador da qualidade das pesquisas em geral. As pesquisas eleitorais diferem de outros tipos de pesquisas em alguns aspectos importantes: não apenas devem incluir uma amostra representativa do público, mas também modelar corretamente quem dentre essa amostra irá realmente votar. Essa é uma tarefa muito difícil que as pesquisas não eleitorais simplesmente não têm.

É importante dissipar a noção de que a votação em larga escala está quebrada - nossa investigação concluiu que não é esse o caso. Ao mesmo tempo, não devemos encobrir o que aconteceu. Ocorreram erros e a indústria de pesquisas teve uma reputação abalada. Mas a comunidade e os consumidores das pesquisas devem se consolar com o fato de que descobrimos bastante sobre o que deu errado e por quê, e todos nós podemos aprender com esses erros. Algumas coisas estavam fora do controle dos pesquisadores, a saber, as mudanças tardias na preferência dos eleitores, outras coisas estavam sob seu controle e podem ser corrigidas. O desequilíbrio educacional, por exemplo, é muito solucionável.

Nós, como pesquisadores, devemos falar sobre toda a história das pesquisas em 2016 - as diferenças entre as pesquisas nacionais e estaduais, o fato de termos identificado os principais fatores que levaram aos erros - de forma aberta e não defensiva, para dissipar a narrativa & # 8220polling is broken & # 8221. Essa narrativa presta um desserviço à nossa democracia. Porque a votação, imperfeita como é, continua a ser a melhor ferramenta disponível para medir as atitudes de tudo Americanos. E quando bem feito, ainda pode produzir dados muito úteis. Não importa qual partido está no poder, é importante ter pesquisadores independentes e objetivos medindo como o público se sente sobre as principais questões da atualidade.


Como sabemos que Trump está com problemas? Veja as pesquisas de 2016 da semana antes da eleição

O candidato presidencial democrata e ex-vice-presidente Joe Biden, à esquerda, e o presidente Donald Trump participam do debate presidencial final na Universidade Belmont em Nashville, Tennessee, em 22 de outubro de 2020.

JIm Bourg / AFP / Getty Images

Este artigo é o sexto de uma série de sete partes. Todas as terças-feiras entre agora e o dia da eleição, o SFGATE apresentará um relatório sobre como as atuais médias de votação da eleição presidencial de 2020 se comparam às médias de votação ao mesmo tempo na eleição presidencial de 2016. Após a eleição, o SFGATE examinará se as pesquisas em 2020 foram mais ou menos precisas do que as de 2016.

Faltando uma semana para a eleição presidencial de 2016, a forte liderança nacional de Hillary Clinton havia praticamente evaporado após o anúncio do ex-diretor do FBI James Comey de que o bureau estava reabrindo sua investigação aos e-mails de Clinton e deu uma grande reviravolta em uma corrida de apenas 11 dias antes do dia da eleição.

A liderança nacional de Clinton diminuiu para 3,5% em FiveThirtyEight e para 1,7% em RealClearPolitics & mdash números muito próximos de sua margem de voto popular nacional final de + 2,1%. Direi pela milésima vez desde que começamos esta série: as pesquisas nacionais foram bastante precisas em 2016. Não eram o problema.

Em 2020, a liderança nacional de Joe Biden encolheu na semana passada, mas não está apenas se contraindo em um ritmo mais lento do que o evaporado Donald Trump de Clinton, tem que ganhar muito mais terreno contra Biden do que ele fez contra Clinton. Depois de liderar brevemente a nível nacional por dois dígitos, a liderança de Biden caiu para 9,5% no FiveThirtyEight e 7,8% no RealClearPolitics, que ainda é uma posição muito, muito mais forte do que Hillary Clinton estava em uma semana.

Para este exercício, vamos supor que, como em 2016, a votação popular nacional final saia em algum lugar entre as médias de FiveThirtyEight e RealClearPolitics de sete dias antes do dia da eleição. Isso significa uma vitória do voto popular de Biden de cerca de 8% ou mais. Embora Trump possa definitivamente ganhar o Colégio Eleitoral sem ganhar o voto popular como fez em 2016, é altamente, altamente improvável & mdash se não impossível & mdash para ele ganhar o Colégio Eleitoral enquanto perde o voto popular em 8%.

Quando Trump perdeu o voto popular por 2,1% em 2016, ele conquistou uma vitória do Colégio Eleitoral por uma margem de menos de 80.000 votos em Michigan, Wisconsin e Pensilvânia. Embora o presidente certamente tenha uma vantagem do Colégio Eleitoral que lhe permite perder o voto popular por uma margem substancial, certamente não é forte o suficiente para suportar uma derrota nacional de oito pontos.

Mesmo olhando as pesquisas estaduais, fica claro que Biden tem uma vantagem mais forte do que Clinton tinha em Michigan, Arizona, Flórida e Carolina do Norte. A liderança de Biden é semelhante à de Clinton em Wisconsin e na Pensilvânia, mas isso pode ser pelo menos parcialmente atribuído ao fato de que nenhum dos estados foi fortemente pesquisado nas últimas semanas da corrida de 2016, já que os dois eram considerados estados de certa forma seguros para os democratas.

Claro, a corrida ainda não acabou, e se a liderança nacional de Biden diminuir ainda mais na semana final & mdash, algo que não pode ser descartado após o presidente Trump apresentar um desempenho de debate muito mais forte na semana passada do que no primeiro debate & mdash, certamente poderia ser competitivo novamente, assumindo um erro de pesquisa nacional.

Mas a partir de hoje, parece que o presidente vai ter que esperar que as pesquisas estejam mais erradas do que estavam em 2016 & mdash, o que não é um bom lugar para se estar, dado o fato de que as pesquisas fizeram ajustes significativos nos últimos quatro anos e as pessoas muitas vezes esquecem que as pesquisas de 2012 foram, na verdade, muito pró-Mitt Romney.

Pesquisas nacionais

FiveThirtyEight em média uma semana antes do dia da eleição em 2016: Hillary Clinton 45,0%, Donald Trump 41,5% (Clinton + 3,5%, era Clinton + 6,1% semana anterior)

FiveThirtyEight em média uma semana antes do dia da eleição em 2020: Joe Biden 52,3%, Donald Trump 42,8% (Biden + 9,5%, era Biden + 10,7% semana anterior)

RealClearPolitics em média uma semana antes do dia da eleição em 2016: Hillary Clinton 47,0%, Donald Trump 45,3% (Clinton + 1,7%, era Clinton + 5,5% semana anterior)

RealClearPolitics em média uma semana antes do dia da eleição em 2020: Joe Biden 50,8%, Donald Trump 43,0% (Biden + 7,8%, era Biden + 8,9% semana anterior)

Voto popular nacional real em 2016: Hillary Clinton 48,2%, Donald Trump 46,1% (Clinton + 2,1%)

Pensilvânia

FiveThirtyEight votação compartilhada projetada uma semana antes do dia da eleição em 2016: Hillary Clinton 49,4%, Donald Trump 44,9% (Clinton + 4,5%, era Clinton + 6,5% semana anterior)

FiveThirtyEight em média uma semana antes do dia da eleição em 2020: Joe Biden 50,2%, Donald Trump 45,1% (Biden + 5,1%, era Biden + 6,7% semana anterior)

RealClearPolitics em média uma semana antes do dia da eleição em 2016: Hillary Clinton 47,9%, Donald Trump 42,8% (Clinton + 5,1%, era Clinton + 4,3% semana anterior)

RealClearPolitics em média uma semana antes do dia da eleição em 2020: Joe Biden 49,8%, Donald Trump 45,0% (Biden + 4,8%, era Biden + 4,4% semana anterior)

Resultados reais da Pensilvânia em 2016: Donald Trump 48,2%, Hillary Clinton 47,5% (Trump + 0,7%)

FiveThirtyEight votação compartilhada projetada uma semana antes do dia da eleição em 2016: Hillary Clinton 49,3%, Donald Trump 44,9% (Clinton + 4,4%, era Clinton + 7,1% semana anterior)

FiveThirtyEight em média uma semana antes do dia da eleição em 2020: Joe Biden 51,4%, Donald Trump 44,3% (Biden + 7,1%, era Biden + 7,3% semana anterior)

RealClearPolitics em média uma semana antes do dia da eleição em 2016: Hillary Clinton 46,7%, Donald Trump 41,3% (Clinton + 5,4%, era Clinton + 6,5% semana anterior)

RealClearPolitics em média uma semana antes do dia da eleição em 2020: Joe Biden 49,8%, Donald Trump 44,3% (Biden + 5,5%, era Biden + 6,0% semana anterior)

Resultados reais de Wisconsin em 2016: Donald Trump 47,2%, Hillary Clinton 46,5% (Trump + 0,7%)

FiveThirtyEight votação compartilhada projetada uma semana antes do dia da eleição em 2016: Hillary Clinton 48,8%, Donald Trump 44,1% (Clinton + 4,7%, era Clinton + 7,8% semana anterior)

FiveThirtyEight em média uma semana antes do dia da eleição em 2020: Joe Biden 50,9%, Donald Trump 42,5% (Biden + 8,4%, era Biden + 8,0% semana anterior)

RealClearPolitics em média uma semana antes do dia da eleição em 2016: Hillary Clinton 46,7%, Donald Trump 40,3% (Clinton + 6,4%, era Clinton + 9,5% semana anterior)

RealClearPolitics em média uma semana antes do dia da eleição em 2020: Joe Biden 50,6%, Donald Trump 41,6% (Biden + 9,0%, era Biden + 6,8% semana anterior)


A ciência do erro: como as pesquisas fracassaram nas eleições de 2016

Na véspera da eleição de 2016, o site 538 de Nate Silver deu a Clinton 71% de chance de ganhar a presidência. Outros sites que usavam as técnicas de agregação e modelagem analíticas mais avançadas disponíveis tinham suas chances ainda maiores: o New York Times tinha suas chances de vitória de 84%, o Princeton Election Consortium a tinha de 95-99% e a ABC News havia chamado isso de Clinton foi um bloqueio para 274 votos eleitorais - o suficiente para vencer - imediatamente antes da votação realmente ocorrer. Mas em uma reviravolta surpreendente nos acontecimentos, Trump superou amplamente o que todos esperavam nas pesquisas estaduais e nacionais, vencendo quase todos os estados tossup mais uma série de estados previstos para favorecer Clinton, e ele é o novo presidente eleito. Aqui está a ciência de como isso aconteceu.

As previsões pré-eleitorais finais de Larry Sabato / University of Virginia Center for Politics. . [+] Crédito da imagem: captura de tela de 270towin em http://www.270towin.com/maps/crystal-ball-electoral-college-ratings.

Gostamos de pensar que, com dados suficientes, podemos tratar qualquer problema cientificamente. Isso pode, em princípio, ser verdadeiro para as previsões de votação, e 2012 parece servir como um ótimo exemplo: onde o 538 de Nate Silver previu corretamente os resultados de cada estado individual: todos os 50. Desta vez, havia muitos diferentes de alta qualidade e grandes -dados pesquisas por aí, pelo menos tantas quanto havia em 2012. E, o mais importante, a ciência por trás disso é simples. Se você quiser saber como uma amostra de, digamos, um milhão de pessoas vai votar, não precisa pedir a todos um milhão para prever o resultado. Tudo que você precisa fazer é pesquisar o suficiente pessoas para que você possa declarar o resultado com segurança. Portanto, você pode decidir pesquisar 100, 500, 2.000 ou até 10.000 pessoas e descobrir que 52% apóiam Clinton em qualquer uma dessas quatro pesquisas. O que eles dizem é muito diferente, no entanto:

  • 100 pessoas: 52% ± 10%, com 95% de confiança (2-sigma).
  • 500 pessoas: 52% ± 4,5% com 95% de confiança.
  • 2.000 pessoas: 52% ± 2,2% com 95% de confiança.
  • 10.000 pessoas: 52% ± 1,0% com 95% de confiança.

Esses tipos de erros são conhecidos nos círculos científicos como erros estatísticos. Faça pesquisas com mais pessoas e seus erros diminuirão, e maiores serão as chances de que a amostra que você pesquisou reflita com precisão o que o eleitorado realmente fará.

Uma visualização de como sua incerteza estatística diminui à medida que o tamanho da amostra aumenta. Imagem [+] crédito: Fadethree na Wikipedia em inglês.

Se você tiver uma amostra verdadeiramente aleatória de futuros eleitores, esse é o único tipo de erro que importa. Mas se você não fizer isso, há outro tipo de erro que a pesquisa nunca detectará, e é um tipo de erro muito mais insidioso: erros sistemáticos. Um erro sistemático é uma incerteza ou imprecisão que não melhora ou desaparece conforme você coleta mais dados, mas uma falha inerente à maneira como você coleta seus dados.

  • Talvez as pessoas que você pesquisou não reflitam a grande população de votantes. Se você perguntar a uma amostra de pessoas de Staten Island como vão votar, isso é diferente de como as pessoas em Manhattan - ou Syracuse - vão votar.
  • Talvez as pessoas que você entrevistou não votem nas proporções que você espera. Se você pesquisar uma amostra com 40% de brancos, 20% de negros, 30% de hispânicos / latinos e 10% de asiáticos-americanos, mas sua participação eleitoral real for 50% de brancos, os resultados da pesquisa serão inerentemente imprecisos. [Esta fonte de erro se aplica a qualquer grupo demográfico, como idade, renda ou ambiente (por exemplo, urbano / suburbano / rural).]
  • Ou talvez o método de pesquisa seja inerentemente não confiável. Se 95% das pessoas que dizem que vão votar em Clinton o fazem, mas 4% votam em terceiros e 1% em Trump, enquanto 100% das pessoas que dizem que vão votar em Trump realmente votam, isso se traduz em uma oscilação pró-Trump de + 3%.

Ler a linha "200" mL à esquerda pode parecer razoável, mas seria uma medição incorreta. . [+] Erros sistemáticos como este não melhoram ou desaparecem com mais dados. Crédito da imagem: MJCdetroit na Wikipedia em inglês sob c.c.a.-s.a.-3.0.

Nada disso quer dizer que haja algo de errado com as pesquisas que foram realizadas, ou com a ideia das pesquisas em geral. Se você quer saber o que as pessoas estão pensando, ainda é verdade que a melhor maneira de descobrir é perguntando a elas. Mas fazer isso não garante que as respostas que você obtém não sejam tendenciosas ou falhas. Isto é verdade até mesmo de sondagem de saída, o que não reflete necessariamente como o eleitorado votou. É como uma pessoa razoável como Arthur Henning poderia ter escrito, em 1948,

Dewey e Warren obtiveram uma grande vitória na eleição presidencial de ontem. Os primeiros retornos mostraram a chapa republicana liderando Truman e Barkley de forma bastante consistente nos estados do oeste e do sul [. ] resultados completos revelariam que Dewey ganhou a presidência por uma esmagadora maioria dos votos eleitorais.

e todos nós aprendemos como isso acabou.

Truman segurando uma cópia do infame Chicago Daily Tribune após a eleição de 1948. Imagem [+] crédito: usuário do flickr A Meyers 91 do original de Frank Cancellare, via https://www.flickr.com/photos/[email protected]/12894913705 sob cc-by-2.0.

Eu não iria tão longe quanto Alex Berezow do Conselho Americano de Ciência e Saúde, dizendo que as previsões eleitorais e as chances de vitória são um disparate completo, embora ele faça alguns pontos positivos. Mas direi que é um absurdo fingir que esses erros sistemáticos não são reais. Na verdade, esta eleição demonstrou, de forma bastante enfática, que nenhum dos modelos de votação por aí os controlou adequadamente. A menos que você entenda e quantifique seus erros sistemáticos - e você não pode fazer isso se não entender como sua pesquisa pode ser tendenciosa - as previsões eleitorais sofrerão com o problema GIGO: entra lixo, sai lixo.

E apesar do que as pesquisas indicavam, Donald Trump venceu a eleição de 2016 e será a próxima. [+] Presidente dos Estados Unidos. Crédito da imagem: Andrew Harrer / Bloomberg.

É provável que os sucessos de 2012 tenham sido um acaso, em que ou os erros sistemáticos se cancelaram ou os modelos de projeção simplesmente acertaram na mosca. 2016 não foi assim, indicando que há um longo caminho a percorrer antes de termos uma maneira confiável e robusta de prever os resultados das eleições com base nas pesquisas. Talvez represente uma oportunidade de aprendizado e uma chance de pesquisas e como eles são interpretados melhorar. Mas se os analistas não mudarem nada ou aprenderem as lições erradas de suas imprecisões, é improvável que vejamos as projeções de alcançar o sucesso de 2012 novamente.


Teorias sobre por que as pesquisas subestimam o suporte a Trump

Várias teorias foram apresentadas para explicar por que muitas pesquisas foram perdidas em 2016. 1

BIAS DE NÃO RESPOSTA E PESO DEFICIENTE

A maioria das pesquisas de pré-seleção tem taxas de resposta de um dígito ou apresentam uma amostra opt-in para a qual uma taxa de resposta não pode ser calculada (Callegaro e DiSogra 2008 AAPOR 2016). Embora a ligação entre baixas taxas de resposta e viés não seja particularmente forte (por exemplo, Merkle e Edelman 2002 Groves e Peytcheva 2008 Pew Research Center 2012, 2017a), tais taxas baixas acarretam um risco aumentado de viés (por exemplo, Burden 2000). Em particular, os adultos com força partidária mais fraca (por exemplo, Keeter et al. 2006), níveis educacionais mais baixos (Battaglia, Frankel e Link 2008 Chang e Krosnick 2009 Link et al. 2008 Pew Research Center 2012, 2017a) e anti- as opiniões do governo (US Census Bureau 2015) são menos propensas a participar das pesquisas. Dados os temas anti-elite da campanha de Trump, os eleitores de Trump podem ter sido menos propensos do que outros eleitores a aceitar os pedidos de pesquisa. Se a resposta da pesquisa foi correlacionada com o voto presidencial e algum fator não contabilizado na ponderação, então um protocolo de ponderação deficiente poderia ser uma explicação para os erros de votação.

TARDIA DE DECISÃO

A noção de que as pesquisas pré-eleitorais realizadas mais perto do dia da eleição tendem a ser mais preditivas do resultado da eleição do que pesquisas igualmente rigorosas conduzidas mais longe foi bem documentado por algum tempo (por exemplo, Crespi 1988 Traugott 2001 Erikson e Wlezien 2012). O efeito de mudanças tardias nas decisões dos eleitores pode ser particularmente grande em eleições com grandes eventos relacionados à campanha muito próximos ao dia da eleição (AAPOR 2009). Tanto Trump quanto Clinton tiveram classificações de favorabilidade historicamente baixas (Collins 2016 Yourish 2016). Insatisfeitos com suas opções, alguns eleitores podem ter esperado até a última semana antes de decidir. Além disso, os tomadores de decisão tardios, sendo menos ancorados politicamente, tendem a ser mais influenciados pelos eventos de campanha do que os eleitores que decidem antes (Fournier et al. 2004).

MODELOS PROVÁVEIS COM PROVAÇÃO DE ELEITOR

Construir um modelo de eleitor provável preciso é uma tarefa difícil até mesmo para os pesquisadores mais experientes (Erikson, Panagopoulos e Wlezien 2004). Quando os padrões de participação divergem das eleições recentes, os dados históricos podem ser inúteis ou mesmo enganosos. A participação eleitoral em 2016 foi diferente daquela de 2012 de uma forma que favoreceu Trump e colocou Clinton em desvantagem. Nacionalmente, a participação entre os afro-americanos, o grupo que mais apoia Clinton, caiu sete pontos percentuais, enquanto a participação entre hispânicos e brancos não hispânicos mudou pouco, de acordo com o Suplemento de Votação e Registro da Current Population Survey (CPS) (Arquivo 2017). Além disso, a análise de Fraga e colegas (2017) indica que o declínio na participação afro-americana foi mais acentuada em estados como Wisconsin e Michigan, o que determinou o resultado da eleição. Se as pesquisas projetaram seus prováveis ​​modelos de eleitor em torno da suposição de que os padrões de participação em 2016 seriam semelhantes aos de 2012, isso poderia ter levado a uma subestimação do apoio aos republicanos, incluindo Trump. Essa especificação incorreta do modelo poderia ter sido exacerbada por distorções na pesquisa nacional de 2012 (uma fonte popular de dados de participação), exagerando a participação de eleitores jovens e não brancos (McDonald 2007 Cohn 2016).

A SHY TRUMP HIPÓTESE (ERRO DE RELATÓRIO)

A controvérsia em torno da candidatura de Trump levantou a possibilidade de que alguns eleitores de Trump não estivessem dispostos a revelar seu apoio a ele em pesquisas. Se uma parte considerável dos eleitores de Trump relutou em divulgar seu apoio a ele, isso poderia explicar a subestimação sistemática do apoio de Trump nas pesquisas (por exemplo, Enns, Lagodny e Schuldt 2017). A preocupação com a possibilidade de declaração incorreta sistemática de intenção de voto a favor ou contra um candidato controverso data de décadas atrás. Os estudos que examinam esta questão tendem a se concentrar em eleições nas quais a raça do candidato (Citrin, Green e Sears 1990 Finkel, Guterbock e Borg 1991 Traugott e Price 1992 Hopkins 2009) ou gênero (Hopkins 2009 Stout e Kline 2011) era um potencial fator no erro de pesquisa. Na eleição presidencial de 2016, raça e gênero foram altamente destacados. Clinton foi a primeira mulher indicada à presidência pelo partido principal e, embora ambas as candidatas fossem brancas, o histórico de Trump em questões racialmente carregadas (por exemplo, discriminação habitacional, Central Park Five, birtherism) e o apoio aberto dos supremacistas brancos colocaram a raça na vanguarda do campanha. No entanto, um estudo recente sugere que o risco de as pesquisas de entrevistados reportarem intencionalmente de maneira incorreta a escolha do voto diminuiu consideravelmente ou desapareceu totalmente (Hopkins 2009).


Classificação favorável de Hillary Clinton na nova mínima

WASHINGTON, D.C. - A imagem de Hillary Clinton & # 39s declinou desde junho e agora é a pior que a Gallup mediu para ela até agora. Sua avaliação favorável caiu cinco pontos percentuais desde junho, para uma nova baixa de 36%, enquanto sua avaliação desfavorável atingiu uma nova alta de 61%.

A classificação favorável baixa anterior de Clinton e # 39 foi de 38% no final de agosto / início de setembro de 2016 durante a campanha presidencial. Ela também registrou uma avaliação favorável de 38% (com uma avaliação desfavorável de 40%) em abril de 1992, quando era muito menos conhecida.

Os resultados atuais são baseados em uma pesquisa Gallup de 4 a 11 de dezembro. A avaliação favorável de Clinton variou significativamente nos 25 anos em que a Gallup mediu opiniões sobre ela. Seu recorde pessoal foi uma avaliação favorável de 67% obtida em uma pesquisa de dezembro de 1998, logo depois que a Câmara dos Representantes votou pelo impeachment de seu marido, o então presidente Bill Clinton. Ela também teve avaliações favoráveis ​​em meados dos anos 60, durante seu tempo como secretária de Estado entre 2009 e 2013.

Às vezes, quando ela assumia um papel mais abertamente político - durante as tentativas de reforma da saúde em 1994, em seus anos como senadora dos Estados Unidos e durante suas campanhas de 2007-2008 e 2015-2016 para presidente, suas avaliações sofreram. Suas avaliações favoráveis ​​estavam perto de 50% quando ela anunciou sua segunda candidatura à presidência na primavera de 2015, mas caiu no verão de 2015 em meio à polêmica sobre o uso de um servidor de e-mail privado enquanto era secretária de Estado. Ao longo de 2016, suas avaliações favoráveis ​​foram geralmente em torno de 40%, entre as piores já medidas para candidatos presidenciais, mas mais positivas do que as avaliações de Donald Trump.

Desde a derrota para Trump, as classificações favoráveis ​​de Clinton não melhoraram, em contraste com o que aconteceu com outros candidatos presidenciais derrotados recentemente. Na verdade, sua imagem piorou nos últimos meses, quando líderes democratas, observadores políticos e a própria Clinton tentaram explicar como ela perdeu uma eleição que esperava vencer. Enquanto isso, a controvérsia continua a girar em torno de Clinton, dadas as contínuas perguntas sobre a justiça do processo de nomeação democrata de 2016 e suas negociações com a Rússia enquanto secretária de Estado. Também houve uma discussão renovada sobre a maneira como Bill e Hillary Clinton lidaram com as acusações anteriores de assédio sexual feitas contra Bill Clinton à luz da crescente preocupação pública sobre o comportamento no local de trabalho.

Democratas & # 39 imagem de Hillary Clinton Stable nos últimos seis meses

Nos últimos seis meses, a imagem de Hillary Clinton caiu entre os republicanos e independentes, mas não entre os democratas.

Junho de 2017 Dezembro 2017 Mudar
% % pct. pts.
Adultos nacionais 41 36 -5
Democratas 79 78 -1
Independentes 33 27 -6
Republicanos 11 5 -6
Gallup

De uma perspectiva de longo prazo, a favorabilidade de Hillary Clinton entre os democratas não se manteve no nível visto durante as eleições de 2016. Ela teve 87% de avaliações favoráveis ​​entre os democratas no início (com base em uma pesquisa de maio de 2015) e no final (com base em uma pesquisa de novembro de 2016) de sua campanha para presidente em 2016.

A campanha e suas consequências tiveram o maior impacto nas opiniões dos independentes sobre Clinton. Ela começou com 51% de avaliação favorável nesse grupo, que caiu para 33% em novembro de 2016 e agora está em 27%.

A pior imagem de Bill Clinton desde 2001

A imagem de Bill Clinton # 39s também caiu no ano passado, com sua atual avaliação favorável de 45% caindo cinco pontos desde que Gallup mediu pela última vez as opiniões dos americanos sobre ele em novembro de 2016. Dada sua avaliação desfavorável de 52%, mais adultos americanos agora têm um negativa do que uma opinião positiva do ex-presidente.

Sua classificação atual é a mais baixa desde março de 2001, quando atingiu 39% após sua saída conturbada da Casa Branca, que incluiu uma série de indultos polêmicos, bem como os Clintons recebendo, mas retornando posteriormente, presentes destinados à Casa Branca. Naquela época, 59% dos americanos tinham uma visão desfavorável de Bill Clinton, a mais alta na tendência do Gallup. Ele teve classificações favoráveis ​​abaixo de 39%, mas foram medidas no início de sua campanha presidencial de 1992, quando uma proporção substancial de americanos não estava familiarizada o suficiente com Clinton para oferecer uma opinião sobre ele.

A imagem de Bill Clinton foi recuperada nos anos após sua saída da Casa Branca, como é típico da maioria dos ex-presidentes. Em agosto de 2012, 69% dos americanos tinham uma opinião favorável sobre ele, a mais alta que o Gallup mediu para ele. Suas avaliações começaram a cair depois disso, principalmente depois que ele começou a fazer campanha para apoiar a campanha presidencial de sua esposa.

Em contraste com o que ocorreu para Hillary Clinton, a avaliação favorável de Bill Clinton é mais baixa entre seus colegas democratas do que na avaliação anterior de Gallup. Atualmente, 76% dos democratas têm uma opinião positiva sobre ele, ante 81% em 2016. A positividade dos independentes & # 39 diminuiu ainda mais - sete pontos - enquanto os republicanos & # 39 exibem estáveis.

Novembro de 2016 Dezembro 2017 Mudar
% % pct. pts.
Adultos nacionais 50 45 -5
Democratas 81 76 -5
Independentes 48 41 -7
Republicanos 17 16 -1
Gallup

Implicações

Muitos especialistas políticos, e provavelmente os próprios Clinton, pensaram que Bill e Hillary Clinton residiriam na Casa Branca em 2017. Mas a derrota surpresa de Hillary Clinton na eleição de 2016 encerrou suas carreiras como autoridades eleitas. O ano longe da política não fez com que os americanos vissem nenhum dos dois de uma forma mais positiva; na verdade, o oposto ocorreu com Bill Clinton & # 39s avaliações as piores em 16 anos e Hillary Clinton & # 39s, a pior que Gallup já mediu até agora.

Em vez de olhar favoravelmente para seus mais de 25 anos de serviço público, o ano passado foi repleto de dúvidas sobre a estratégia da campanha de Clinton de 2016 e contínuas alegações de comportamento antiético ou ilegal na parte de Hillary Clinton & # 39 durante seu tempo no serviço público e como candidato presidencial. Além disso, o foco no assédio sexual este ano fez com que alguns, incluindo democratas, questionassem a maneira como os apoiadores de Bill Clinton responderam a alegações anteriores de que ele maltratava mulheres.

No passado, as classificações de Bill e Hillary Clinton melhoravam quando desempenhavam funções menos abertamente políticas - ela como primeira-dama e secretária de Estado, e ele como ex-presidente e líder filantrópico. Para Bill Clinton, porém, demorou mais de dois anos para que sua imagem se recuperasse após sua saída polêmica da Casa Branca em 2001. Assim, se as avaliações deles melhorarem, pode levar mais tempo para as feridas políticas da campanha de 2016 curar.

Métodos de Pesquisa

Os resultados desta pesquisa Gallup são baseados em entrevistas por telefone realizadas de 4 a 11 de dezembro de 2017, com uma amostra aleatória de 1.049 adultos, com 18 anos ou mais, vivendo em todos os 50 estados dos EUA e no Distrito de Columbia. Para resultados baseados na amostra total de adultos nacionais, a margem de erro de amostragem é de ± 4 pontos percentuais no nível de confiança de 95%. Todas as margens de erro de amostragem relatadas incluem efeitos de projeto computados para ponderação.

Cada amostra de adultos nacionais inclui uma cota mínima de 70% dos respondentes por telefone celular e 30% por telefone fixo, com cotas mínimas adicionais por fuso horário dentro da região. Os números de telefone fixo e celular são selecionados usando métodos de discagem com dígitos aleatórios.

Saiba mais sobre como funciona a Gallup Poll Social Series.

Alertas de notícias da Gallup
Receba as últimas notícias baseadas em dados diretamente na sua caixa de entrada.


Assista o vídeo: POIRIER ENQUÊTE: THERESA ALLORE 30122016. PAR HISTORIA