A última edição do Planet Money, da NPR, tem uma entrevista com o economista Joel Waldfogel, autor de Scroogenomics: Why You Shouldn't Buy Presents For The Holidays. Tudo começou com um artigo da American Economic Review onde Waldfogel mostra que, segundo inquéritos aplicados a pessoas que receberam presentes, quem os oferece pagou por eles um valor superior àquele que é atribuído por quem os recebe. Entre um décimo a um terço do valor do que é comprado é destruído pelo acto da dádiva.
A solução seria dar sempre dinheiro, que aqueles que o receberiam poderiam usar para o fim que entendessem e lhes fosse mais satisfatório, evitando destruição de valor. Mas como oferecer dinheiro é socialmente sancionado, Waldfogel prevê a generalização de "cheques-brinde" ou, melhor ainda, que se ofereçam cheques-beneficência, que os destinatários poderiam usar para oferecer à instituição de caridade que entendessem. Dádivas caritativas estão altamente correlacionadas com o rendimento das pessoas, sugerindo que a beneficência é o verdadeiro "bem de luxo".
Este artigo da Economist sugere desde logo algumas razões para que a história seja um bocado mais complicada, e há uma quantidade surpreendente grande de referências que discutem este tema. Mas que o tema é fascinante, é.
quinta-feira, novembro 26, 2009
quinta-feira, novembro 12, 2009
O relatório sobre as sondagens, 3ª (e última) parte
Em dois posts anteriores, divulguei e discuti algumas conclusões do relatório feito a solicitação da ERC sobre as sondagens em Portugal. No primeiro, sintetizei as principais conclusões e recomendações. No segundo, discuti as recomendações. Neste último post, atrasado por falta de tempo, abordo as principais conclusões do relatório no que respeita às próprias sondagens, seus resultados e confronto com resultados eleitorais.
Para este fim, o relatório baseia-se em 38 sondagens publicadas na semana anterior às eleições europeias de 2009 (5), regionais Madeira 2008 (3), regionais Açores 2007 (1), intercalares Lisboa 2007 (5), presidenciais 2006 (6), autárquicas Lisboa 2005 (5), autárquicas Porto 2005 (5) e legislativas 2005 (8). De seguida, os autores do relatório comparam os resultados dessas sondagens - das estimativas de intenções de voto válidas + brancos e nulos (excepto nas presidenciais, suponho) com os que vieram a ser os resultados reais. Calculam o desvio em módulo (valor absoluto) entre uns e outros e depois a média desses desvios para cada sondagem. Ficamos assim com um indicador de "precisão" de cada sondagem: "em média, os resultados deste sondagem desviaram-se dos valores reais em x".
Como a base de dados recolhida pela equipa responsável pelo relatório continha informação sobre algumas características da sondagem e da eleição respectiva, o relatório, a partir da página 23, calcula um valor médio para esse indicador de precisão por eleição, empresa/instituto de sondagens, procedimento de amostragem e técnica de recolha. As conclusões desta análise encontram-se resumidas na página 4:
"Nas sondagens, cujos dados da Ficha técnica permitiram o cálculo dos desvios em módulo entre os valores estimados através da projecção e os valores reais da eleição para os diferentes partidos (trinta e duas em trinta e oito), o desvio médio em módulo foi no conjunto de 2,3%.
Foi menor nas projecções:
- para as eleições legislativas de 2005, seguindo-se-lhes as projecções para as eleições presidenciais de 2006 e intercalares de Lisboa de 2007;
- realizadas pela empresa Ipom, seguida de Universidade Católica e Aximage;
- que utilizaram o procedimento de amostragem aleatória de selecção de freguesias tipo e último aniversariante, seguido pelos procedimentos de amostragem de selecção aleatória de indivíduo
através de “master sample” e selecção aleatória de lar e último aniversariante;
- que recorreram à entrevista pessoal;
Foi maior nas projecções
- para as eleições europeias de 2009;
- realizadas pela empresa Pitagórica, seguida da Intercampus;
- que utilizaram o procedimento de selecção “homem mais novo” - Pitagórica - e selecção aleatória de lar e quotas de indivíduo;
- que recorreram à entrevista telefónica."
E conclui-se também, na base destes dados, que "não existe correlação significativa entre a dimensão da amostra e a precisão das estimativas" (p. 16).
Estas conclusões do relatório da ERC fazem-me lembrar uma famosa conferência feita em 1952 por Jerzy Neyman, uma das figuras cimeiras da estatística moderna, onde contava a história de um amigo (imaginário) que recolheu dados sobre a população de cegonhas e o número de nascimentos em 54 condados dos Estados Unidos. A correlação entre o número de cegonhas e o número de bebés nascidos durante o período considerado atinge o valor de .83, próximo do limite máximo de 1 (correlação perfeita). Na conferência em causa, o amigo de Neyman sugeria que, na base dos resultados, era evidente que a presença de cegonhas estava a influenciar os nascimentos, e propunha a realização de uma experiência de controlo de natalidade, que consistia na remoção de todas as cegonhas de um sub-conjunto de condados seleccionados aleatoriamente. O problema do amigo de Neyman, claro, é que não estava a tomar em conta o facto de que o número de mulheres varia de condado para condado, e que esse número está correlacionado quer com o número de nascimentos quer com o número de cegonhas (condados maiores, mais cegonhas). Se dividirmos os condados por grupos com aproximadamente o mesmo número de mulheres e procurarmos dentro de cada um desses grupos a correlação entre cegonhas e nascimentos, essa correlação é nula. Mantendo constante uma variável de controlo (o nº de mulheres) que está relacionada quer com a suposta variável independente quer com a variável dependente, remove-se a influência dessa variável e estima-se um valor "verdadeiro" (ou "menos enviesado", pelo menos) para a relação entre o nº de cegonhas e o nº de nascimentos, neste caso, obviamente, zero.
Imaginemos agora que, por alguma razão, as eleições com maiores taxas de abstenção - Europeias, por exemplo - foram aquelas onde mais frequentemente se recorreu a entrevistas telefónicas. Não sei se é assim, mas não seria estranho. Sondagens presenciais são mais caras e obrigam a maior investimento, investimento esse que costuma ser reservado para eleições vistas como mais importantes. E imaginemos agora que as eleições com maiores taxas de abstenção são também aquelas onde os desvios entre os resultados das eleições e os resultados das sondagens são maiores. Não sei se é assim - ou melhor, até sei, por aqui e por aqui - mas imaginemos que é esse o caso. Se assim for, a afirmação do relatório de que "os desvios foram maiores nas sondagens que recorreram a entrevista telefónica", sendo factualmente correcta, é muito provavelmente irrelevante do ponto de vista da análise dos correlatos da precisão das sondagens. Tal como na relação entre cegonhas e bebés, a melhor estimação para a relação "verdadeira" entre técnica de recolha e precisão das sondagens pode muito bem ser zero. Por extensão, o mesmo pode suceder com todas as restantes afirmações sobre empresas, amostragem, etc.
A afirmação sobre a ausência de relação significativa entre a dimensão da amostra e a precisão das sondagens feita no relatório pertence à mesma categoria genérica das anteriores, ilustrando-a, contudo, de maneira diferente. Uma relação verdadeira que permanece invisível quando nos limitamos a correlacionar duas variáveis só vai aparecer quando estimamos um modelo correctamente especificado. No caso concreto, basta que as sondagens realizadas em eleições com maior abstenção - menor precisão - tenham tendencialmente usado amostras maiores para que quaisquer efeitos favoráveis da dimensão da amostra na precisão permaneçam ocultos numa simples correlação (e nem entro pelo problema de se presumir, na correlação estimada no relatório, uma relação linear entre dimensão amostral e precisão, coisa que se percebe rapidamente não poder ser esperada quando se olha para isto).
É estranho que um relatório redigido por pessoas desta qualidade, que se propõe fazer um "diagnóstico" sobre as sondagens e uma "análise" da sua "precisão" tenha optado por ignorar completamente o conceito de controlo estatístico. Só por falta de tempo se explica isto. É certo que nunca se diz no relatório que esta ou aquela metodologia produz resultados mais ou menos precisos. E é também verdade que, a certa altura, se afirma que "não se estão aqui a considerar obviamente quer as inter-relações entre esses factores quer o efeito de outros factores que se sabe afectarem os resultados, o que poderá ser objecto de outra análise mais aprofundada, se essa informação for disponibilizada". Mas este disclaimer não chega. "A análise mais aprofundada" não carecia de informação não disponibilizada. Muitos dos factores que sabe influenciarem a "precisão" das sondagens, no sentido que o relatório atribui ao termo, são conhecidos. E como sondagens não são previsões de resultados eleitorais, a sua comparação sistemática com esse resultados não pode deixar de ser feita mantendo em mente e testando, no mínimo, um modelo qualquer que inclua pelo menos alguns desses factores que fazem, muito simplesmente, com que sondagens não possam ser tratadas como previsões. E sabendo-se que o relatório ia ser lido (também) em busca de factores explicativos da precisão das sondagens, a mera enunciação de "médias" por empresa, técnica de recolha e amostragem ou a mera correlação com dimensões amostrais correu, uma vez mais, o risco de obfuscar os fenómenos em vez de os clarificar. Digo isto perfeitamente ciente de que as conclusões da ERC são muito favoráveis ao instituto que dirijo, inclusivamente do ponto de vista das técnicas de recolha e amostragem que usamos, para já não falar dos "standards" de divulgação da informação (tratados no post anterior). Mas não estaria a ser intelectualmente honesto se dissesse que estas conclusões estão correctas. Até podem estar, substantivamente falando, e ficaria contente se assim fosse. Mas o relatório fica muito aquém de o provar. É pena.
Contudo, não quero ser excessivamente negativo. Num país, digamos, maior, mais rico e com melhores universidades, nem este relatório nem este post teriam sido necessários para coisa alguma. As "bases de dados" que o relatório propõe já existiriam. Papers sobre este assunto já teriam sido escritos, discutidos em conferências, e nelas elogiados pela sua competência ou assassinados pela sua indigência. Seriam publicados em boas revistas se fossem bons, em revistas menos boas se fossem menos bons, ou em .pdf's nas páginas pessoais dos autores se fossem péssimos. Mas como vivemos num país pequeno, pobre e com más universidades, isto é melhor que nada, acho.
P.S. - Sobre a comparação entre a "abstenção real" e a "abstenção estimada" nas sondagens, que o relatório faz nas páginas 22 e 23, nem vale a pena perder muito tempo. Por um lado, a comparação é feita com recurso à abstenção oficial, e nem sequer se fez um esforço para tentar estimar um valor real (usando como denominador, por exemplo, a voting age population). Por outro lado, o relatório toma como "estimativas da abstenção" coisas que não o são, como discutido no post anterior sobre o tema.
Para este fim, o relatório baseia-se em 38 sondagens publicadas na semana anterior às eleições europeias de 2009 (5), regionais Madeira 2008 (3), regionais Açores 2007 (1), intercalares Lisboa 2007 (5), presidenciais 2006 (6), autárquicas Lisboa 2005 (5), autárquicas Porto 2005 (5) e legislativas 2005 (8). De seguida, os autores do relatório comparam os resultados dessas sondagens - das estimativas de intenções de voto válidas + brancos e nulos (excepto nas presidenciais, suponho) com os que vieram a ser os resultados reais. Calculam o desvio em módulo (valor absoluto) entre uns e outros e depois a média desses desvios para cada sondagem. Ficamos assim com um indicador de "precisão" de cada sondagem: "em média, os resultados deste sondagem desviaram-se dos valores reais em x".
Como a base de dados recolhida pela equipa responsável pelo relatório continha informação sobre algumas características da sondagem e da eleição respectiva, o relatório, a partir da página 23, calcula um valor médio para esse indicador de precisão por eleição, empresa/instituto de sondagens, procedimento de amostragem e técnica de recolha. As conclusões desta análise encontram-se resumidas na página 4:
"Nas sondagens, cujos dados da Ficha técnica permitiram o cálculo dos desvios em módulo entre os valores estimados através da projecção e os valores reais da eleição para os diferentes partidos (trinta e duas em trinta e oito), o desvio médio em módulo foi no conjunto de 2,3%.
Foi menor nas projecções:
- para as eleições legislativas de 2005, seguindo-se-lhes as projecções para as eleições presidenciais de 2006 e intercalares de Lisboa de 2007;
- realizadas pela empresa Ipom, seguida de Universidade Católica e Aximage;
- que utilizaram o procedimento de amostragem aleatória de selecção de freguesias tipo e último aniversariante, seguido pelos procedimentos de amostragem de selecção aleatória de indivíduo
através de “master sample” e selecção aleatória de lar e último aniversariante;
- que recorreram à entrevista pessoal;
Foi maior nas projecções
- para as eleições europeias de 2009;
- realizadas pela empresa Pitagórica, seguida da Intercampus;
- que utilizaram o procedimento de selecção “homem mais novo” - Pitagórica - e selecção aleatória de lar e quotas de indivíduo;
- que recorreram à entrevista telefónica."
E conclui-se também, na base destes dados, que "não existe correlação significativa entre a dimensão da amostra e a precisão das estimativas" (p. 16).
Estas conclusões do relatório da ERC fazem-me lembrar uma famosa conferência feita em 1952 por Jerzy Neyman, uma das figuras cimeiras da estatística moderna, onde contava a história de um amigo (imaginário) que recolheu dados sobre a população de cegonhas e o número de nascimentos em 54 condados dos Estados Unidos. A correlação entre o número de cegonhas e o número de bebés nascidos durante o período considerado atinge o valor de .83, próximo do limite máximo de 1 (correlação perfeita). Na conferência em causa, o amigo de Neyman sugeria que, na base dos resultados, era evidente que a presença de cegonhas estava a influenciar os nascimentos, e propunha a realização de uma experiência de controlo de natalidade, que consistia na remoção de todas as cegonhas de um sub-conjunto de condados seleccionados aleatoriamente. O problema do amigo de Neyman, claro, é que não estava a tomar em conta o facto de que o número de mulheres varia de condado para condado, e que esse número está correlacionado quer com o número de nascimentos quer com o número de cegonhas (condados maiores, mais cegonhas). Se dividirmos os condados por grupos com aproximadamente o mesmo número de mulheres e procurarmos dentro de cada um desses grupos a correlação entre cegonhas e nascimentos, essa correlação é nula. Mantendo constante uma variável de controlo (o nº de mulheres) que está relacionada quer com a suposta variável independente quer com a variável dependente, remove-se a influência dessa variável e estima-se um valor "verdadeiro" (ou "menos enviesado", pelo menos) para a relação entre o nº de cegonhas e o nº de nascimentos, neste caso, obviamente, zero.
Imaginemos agora que, por alguma razão, as eleições com maiores taxas de abstenção - Europeias, por exemplo - foram aquelas onde mais frequentemente se recorreu a entrevistas telefónicas. Não sei se é assim, mas não seria estranho. Sondagens presenciais são mais caras e obrigam a maior investimento, investimento esse que costuma ser reservado para eleições vistas como mais importantes. E imaginemos agora que as eleições com maiores taxas de abstenção são também aquelas onde os desvios entre os resultados das eleições e os resultados das sondagens são maiores. Não sei se é assim - ou melhor, até sei, por aqui e por aqui - mas imaginemos que é esse o caso. Se assim for, a afirmação do relatório de que "os desvios foram maiores nas sondagens que recorreram a entrevista telefónica", sendo factualmente correcta, é muito provavelmente irrelevante do ponto de vista da análise dos correlatos da precisão das sondagens. Tal como na relação entre cegonhas e bebés, a melhor estimação para a relação "verdadeira" entre técnica de recolha e precisão das sondagens pode muito bem ser zero. Por extensão, o mesmo pode suceder com todas as restantes afirmações sobre empresas, amostragem, etc.
A afirmação sobre a ausência de relação significativa entre a dimensão da amostra e a precisão das sondagens feita no relatório pertence à mesma categoria genérica das anteriores, ilustrando-a, contudo, de maneira diferente. Uma relação verdadeira que permanece invisível quando nos limitamos a correlacionar duas variáveis só vai aparecer quando estimamos um modelo correctamente especificado. No caso concreto, basta que as sondagens realizadas em eleições com maior abstenção - menor precisão - tenham tendencialmente usado amostras maiores para que quaisquer efeitos favoráveis da dimensão da amostra na precisão permaneçam ocultos numa simples correlação (e nem entro pelo problema de se presumir, na correlação estimada no relatório, uma relação linear entre dimensão amostral e precisão, coisa que se percebe rapidamente não poder ser esperada quando se olha para isto).
É estranho que um relatório redigido por pessoas desta qualidade, que se propõe fazer um "diagnóstico" sobre as sondagens e uma "análise" da sua "precisão" tenha optado por ignorar completamente o conceito de controlo estatístico. Só por falta de tempo se explica isto. É certo que nunca se diz no relatório que esta ou aquela metodologia produz resultados mais ou menos precisos. E é também verdade que, a certa altura, se afirma que "não se estão aqui a considerar obviamente quer as inter-relações entre esses factores quer o efeito de outros factores que se sabe afectarem os resultados, o que poderá ser objecto de outra análise mais aprofundada, se essa informação for disponibilizada". Mas este disclaimer não chega. "A análise mais aprofundada" não carecia de informação não disponibilizada. Muitos dos factores que sabe influenciarem a "precisão" das sondagens, no sentido que o relatório atribui ao termo, são conhecidos. E como sondagens não são previsões de resultados eleitorais, a sua comparação sistemática com esse resultados não pode deixar de ser feita mantendo em mente e testando, no mínimo, um modelo qualquer que inclua pelo menos alguns desses factores que fazem, muito simplesmente, com que sondagens não possam ser tratadas como previsões. E sabendo-se que o relatório ia ser lido (também) em busca de factores explicativos da precisão das sondagens, a mera enunciação de "médias" por empresa, técnica de recolha e amostragem ou a mera correlação com dimensões amostrais correu, uma vez mais, o risco de obfuscar os fenómenos em vez de os clarificar. Digo isto perfeitamente ciente de que as conclusões da ERC são muito favoráveis ao instituto que dirijo, inclusivamente do ponto de vista das técnicas de recolha e amostragem que usamos, para já não falar dos "standards" de divulgação da informação (tratados no post anterior). Mas não estaria a ser intelectualmente honesto se dissesse que estas conclusões estão correctas. Até podem estar, substantivamente falando, e ficaria contente se assim fosse. Mas o relatório fica muito aquém de o provar. É pena.
Contudo, não quero ser excessivamente negativo. Num país, digamos, maior, mais rico e com melhores universidades, nem este relatório nem este post teriam sido necessários para coisa alguma. As "bases de dados" que o relatório propõe já existiriam. Papers sobre este assunto já teriam sido escritos, discutidos em conferências, e nelas elogiados pela sua competência ou assassinados pela sua indigência. Seriam publicados em boas revistas se fossem bons, em revistas menos boas se fossem menos bons, ou em .pdf's nas páginas pessoais dos autores se fossem péssimos. Mas como vivemos num país pequeno, pobre e com más universidades, isto é melhor que nada, acho.
P.S. - Sobre a comparação entre a "abstenção real" e a "abstenção estimada" nas sondagens, que o relatório faz nas páginas 22 e 23, nem vale a pena perder muito tempo. Por um lado, a comparação é feita com recurso à abstenção oficial, e nem sequer se fez um esforço para tentar estimar um valor real (usando como denominador, por exemplo, a voting age population). Por outro lado, o relatório toma como "estimativas da abstenção" coisas que não o são, como discutido no post anterior sobre o tema.
terça-feira, novembro 10, 2009
Mais Trocas
A pedido de várias famílias, um primeiro contrato sobre Economia no Trocas: este. Em breve, vamos arrumar os contratos em temas.
domingo, novembro 08, 2009
A negociação e formação de preços no Trocas
Começou a circular há alguns dias um inquérito aos inscritos no Trocas de Opinião. Nas respostas já recebidas chegaram já muitas e boas sugestões, cuja concretização depende apenas de tempo. Somos cinco pessoas, mas todas com day jobs, pelo que a capacidade de implementar alterações é limitada. Agradecemos as vossas ideias e a vossa paciência.
Entretanto, há quem tenha levantado a questão de saber como exactamente se procede à compra e venda de contratos e como se forma o preço. Aqui vai a melhor explicação que consigo dar.
1. Uma das maneiras de perceber como isto funciona é considerar que, neste momento, estão pendentes de concretização várias centenas de ordens de compra e venda de contratos no Trocas de Opinião. Por exemplo, desde o dia 15 de Outubro que está no sistema uma ordem de compra de 400 contratos "Governo cai antes de Setembro de 2010" por 4,99 trocos. A razão pela qual este investidor continua a não conseguir comprar qualquer título com esta ordem é porque nenhuma das ordens de venda actualmente pendentes foi introduzida por pessoas dispostas a receber menos que 16 trocos. Neste momento, há até no sistema quem esteja disposto a pagar 12 trocos por cada um destes contratos. Mas como não há ninguém disposto a receber menos de 16, enquanto não aparecer alguém a querer comprar por mais e/ou alguém a querer vender por menos, este título não é transaccionado, e a sua cotação ficará pelo valor actual, 17,5 trocos, ou seja, o valor ao qual se deu o último negócio. De resto, uma das alterações prioritárias que vamos introduzir - e que vários utilizadores já tinham sugerido - é fazer com que, a qualquer momento, se possa saber para cada contrato aquilo que vos acabo de dizer: quem está disposto a comprar por mais, e quem está disposto a vender por menos.
2. Mas imaginem agora que entrava no sistema uma ordem de compra de 200 contratos "Governo cai antes de Setembro de 2010" por 18 euros. O que sucederia?
- Primeiro, o sistema verifica se o investidor que coloca a ordem tem trocos suficientes para comprar 200 contratos ao preço máximo que se dispõe pagar por cada um (e tendo em conta as ordens que já tem pendentes no sistema). Se não tiver, é avisado de que não tem trocos suficientes e a coisa fica por aí. Se tiver, passamos ao ponto seguinte.
- Segundo, o sistema verifica se o investidor tem ordens pendentes de mais de 200 contratos. Se tiver, não o deixa introduzir a nova ordem, tendo em conta a limitação de 400 contratos que introduzimos após as autárquicas, de forma a evitar o "free for all" que foram as vendas a descoberto. Mas se a ordem agora introduzida, somada às pendentes, for inferior a 400 contratos, passamos ao ponto seguinte.
- Terceiro, o sistema vai emparelhar esta ordem de compra (200 contratos a 18 trocos) com ordens de venda pendentes. Como o faz?
*Procura todas as ordens de venda com valor igual ou inferior a 18 (pessoas que estão dispostas a receber 18 ou menos trocos pelo contrato);
*Destas, escolha a que tem o valor inferior, ou seja, emparelha a ordem de compra com quem esteja disposto a receber menos pelos contratos que quer vender;
*Se houver várias ordens de venda com o mesmo valor, começa pela ordem de venda que foi introduzida no sistema há mais tempo;
* Faz o negócio pela média entre o valor mais alto que quem quer comprar está disposto a oferecer e o valor mais baixo que quem quer vender está disposto a receber. Neste caso concreto, há uma ordem de venda a 16 (a mais baixa de todas para este contrato) e foi introduzida uma ordem de compra a 18. O negócio vai fazer-se a 17 trocos.
3. Imaginem agora que quem estava a vender a 16 estava a vender apenas 100 contratos. Nesse caso, quem introduziu ordem de compra concretiza a aquisição de 100 contratos a 17 trocos mas quer ainda comprar mais 100 a, no máximo, 18 trocos. O que sucede aqui é que o algoritmo recomeça para a quantidade restante. Neste caso, não vai haver negócio, porque a ordem de venda mais alta a seguir à 16 foi uma colocada por alguém que não está disposto a receber menos de 42 trocos (safa!). Como a ordem de 200 foi colocada por alguém que não está disposto a pagar mais de 18, fica uma ordem a 18 para 100 contratos pendente.
Nos vários comentários recebidos, seja aqui seja de outras formas, há dois aspectos mais mencionados:
1. O primeiro é o facto de a cotação "passar" pelo valor das ordens de compra ou de venda de alguém sem que haja negócio. Mas se olharem para a explicação anterior, é fácil perceber como isso sucede. Imaginem que há, no exemplo anterior, uma ordem de venda por 17.25, que quem vende por 16 está a vender 100 contratos e quem compra por 18 quer comprar apenas 100. O negócio dá-se entre quem vende por 16 e quem compra por 18, a cotação baixa de 17.5 para 17, e quem vende por 17.25 não consegue vender.
2. O segundo aspecto mais controverso, relacionado com o anterior, mas mais importante, é o mecanismo de fixação do preço. Fazer pela média da melhor (mais alta) oferta de compra e da melhor (mais baixa) oferta de venda é uma hipótese, mas não é a única. Já nos sugeriram outras coisas:
- Imaginem que há duas ofertas de venda pendentes, uma a 5 e outra a 10, e que aparece uma oferta de compra a 20. Nesse caso, o negócio vai-se fazer a 12.5 entre quem oferece 20 e quem aceita 5. Mas há quem nos tenha sugerido que, havendo quem queira vender a 10, quem compra nunca devia pagar mais do que 10.
- Outra sugestão é que, no exemplo anterior, o negócio se dê também entre quem dá 20 e quem vende por 5, mas que o preço seja fixado na cotação actual do título sempre que ela se situe entre 5 e 20.
As sugestões nem são incompatíveis. Podia começar pela:
- cotação actual;
- caso a cotação esteja fora do intervalo oferta de compra mais alta - oferta de venda mais baixa, então o valor da oferta de venda mais próxima (por baixo) da oferta de compra mais alta;
- caso só haja uma oferta de venda abaixo da oferta de compra, então sim a média (o sistema actual).
Estou a perceber bem, Luís, JP e Pedro? Se calhar não. Mas se sim, que vantagem em relação ao sistema actual? Menos volatilidade? Digam coisas.
Entretanto, há quem tenha levantado a questão de saber como exactamente se procede à compra e venda de contratos e como se forma o preço. Aqui vai a melhor explicação que consigo dar.
1. Uma das maneiras de perceber como isto funciona é considerar que, neste momento, estão pendentes de concretização várias centenas de ordens de compra e venda de contratos no Trocas de Opinião. Por exemplo, desde o dia 15 de Outubro que está no sistema uma ordem de compra de 400 contratos "Governo cai antes de Setembro de 2010" por 4,99 trocos. A razão pela qual este investidor continua a não conseguir comprar qualquer título com esta ordem é porque nenhuma das ordens de venda actualmente pendentes foi introduzida por pessoas dispostas a receber menos que 16 trocos. Neste momento, há até no sistema quem esteja disposto a pagar 12 trocos por cada um destes contratos. Mas como não há ninguém disposto a receber menos de 16, enquanto não aparecer alguém a querer comprar por mais e/ou alguém a querer vender por menos, este título não é transaccionado, e a sua cotação ficará pelo valor actual, 17,5 trocos, ou seja, o valor ao qual se deu o último negócio. De resto, uma das alterações prioritárias que vamos introduzir - e que vários utilizadores já tinham sugerido - é fazer com que, a qualquer momento, se possa saber para cada contrato aquilo que vos acabo de dizer: quem está disposto a comprar por mais, e quem está disposto a vender por menos.
2. Mas imaginem agora que entrava no sistema uma ordem de compra de 200 contratos "Governo cai antes de Setembro de 2010" por 18 euros. O que sucederia?
- Primeiro, o sistema verifica se o investidor que coloca a ordem tem trocos suficientes para comprar 200 contratos ao preço máximo que se dispõe pagar por cada um (e tendo em conta as ordens que já tem pendentes no sistema). Se não tiver, é avisado de que não tem trocos suficientes e a coisa fica por aí. Se tiver, passamos ao ponto seguinte.
- Segundo, o sistema verifica se o investidor tem ordens pendentes de mais de 200 contratos. Se tiver, não o deixa introduzir a nova ordem, tendo em conta a limitação de 400 contratos que introduzimos após as autárquicas, de forma a evitar o "free for all" que foram as vendas a descoberto. Mas se a ordem agora introduzida, somada às pendentes, for inferior a 400 contratos, passamos ao ponto seguinte.
- Terceiro, o sistema vai emparelhar esta ordem de compra (200 contratos a 18 trocos) com ordens de venda pendentes. Como o faz?
*Procura todas as ordens de venda com valor igual ou inferior a 18 (pessoas que estão dispostas a receber 18 ou menos trocos pelo contrato);
*Destas, escolha a que tem o valor inferior, ou seja, emparelha a ordem de compra com quem esteja disposto a receber menos pelos contratos que quer vender;
*Se houver várias ordens de venda com o mesmo valor, começa pela ordem de venda que foi introduzida no sistema há mais tempo;
* Faz o negócio pela média entre o valor mais alto que quem quer comprar está disposto a oferecer e o valor mais baixo que quem quer vender está disposto a receber. Neste caso concreto, há uma ordem de venda a 16 (a mais baixa de todas para este contrato) e foi introduzida uma ordem de compra a 18. O negócio vai fazer-se a 17 trocos.
3. Imaginem agora que quem estava a vender a 16 estava a vender apenas 100 contratos. Nesse caso, quem introduziu ordem de compra concretiza a aquisição de 100 contratos a 17 trocos mas quer ainda comprar mais 100 a, no máximo, 18 trocos. O que sucede aqui é que o algoritmo recomeça para a quantidade restante. Neste caso, não vai haver negócio, porque a ordem de venda mais alta a seguir à 16 foi uma colocada por alguém que não está disposto a receber menos de 42 trocos (safa!). Como a ordem de 200 foi colocada por alguém que não está disposto a pagar mais de 18, fica uma ordem a 18 para 100 contratos pendente.
Nos vários comentários recebidos, seja aqui seja de outras formas, há dois aspectos mais mencionados:
1. O primeiro é o facto de a cotação "passar" pelo valor das ordens de compra ou de venda de alguém sem que haja negócio. Mas se olharem para a explicação anterior, é fácil perceber como isso sucede. Imaginem que há, no exemplo anterior, uma ordem de venda por 17.25, que quem vende por 16 está a vender 100 contratos e quem compra por 18 quer comprar apenas 100. O negócio dá-se entre quem vende por 16 e quem compra por 18, a cotação baixa de 17.5 para 17, e quem vende por 17.25 não consegue vender.
2. O segundo aspecto mais controverso, relacionado com o anterior, mas mais importante, é o mecanismo de fixação do preço. Fazer pela média da melhor (mais alta) oferta de compra e da melhor (mais baixa) oferta de venda é uma hipótese, mas não é a única. Já nos sugeriram outras coisas:
- Imaginem que há duas ofertas de venda pendentes, uma a 5 e outra a 10, e que aparece uma oferta de compra a 20. Nesse caso, o negócio vai-se fazer a 12.5 entre quem oferece 20 e quem aceita 5. Mas há quem nos tenha sugerido que, havendo quem queira vender a 10, quem compra nunca devia pagar mais do que 10.
- Outra sugestão é que, no exemplo anterior, o negócio se dê também entre quem dá 20 e quem vende por 5, mas que o preço seja fixado na cotação actual do título sempre que ela se situe entre 5 e 20.
As sugestões nem são incompatíveis. Podia começar pela:
- cotação actual;
- caso a cotação esteja fora do intervalo oferta de compra mais alta - oferta de venda mais baixa, então o valor da oferta de venda mais próxima (por baixo) da oferta de compra mais alta;
- caso só haja uma oferta de venda abaixo da oferta de compra, então sim a média (o sistema actual).
Estou a perceber bem, Luís, JP e Pedro? Se calhar não. Mas se sim, que vantagem em relação ao sistema actual? Menos volatilidade? Digam coisas.
Aximage, 3-6 Nov., N=600.
Tema: Melhor candidato à liderança do PSD. 57% Marcelo, 34% Passos Coelho. Entre "eleitorado que vota tradicionalmente no PSD" (seja lá como se tenha medido isso), Marcelo reforça vantagem. Quer Marcelo quer Passos Coelho batem cada um dos restantes putativos candidatos em comparações 2 a 2. Notícia aqui.
sexta-feira, novembro 06, 2009
quarta-feira, novembro 04, 2009
O relatório sobre as sondagens, 2ª parte (longo)
O relatório feito por uma comissão nomeada pela ERC para fazer um "diagnóstico sobre a situação das sondagens" foi divulgado há duas semanas. Num post anterior, disponibilizei esse relatório e um resumo das suas principais conclusões.
A primeira coisa que queria notar é o silêncio sepulcral com que as conclusões desse relatório foram recebidas, com excepção de meia-dúzia de notícias divulgadas no próprio dia. Esse silêncio era expectável, mas não por isso menos instrutivo. Nos últimos meses, foram muitas as dezenas de comentadores, políticos e bloggers, dos mais inteligentes e informados até aos semi-analfabetos, que acharam que tinham coisas interessantes e importantes para dizer sobre as sondagens, os institutos que as fazem, os seus resultados, os seus métodos e as suas consequências. Passadas as eleições, e havendo informação produzida por uma fonte independente quer dos partidos quer dos institutos de sondagens, verifica-se que quase ninguém tem nada para dizer sobre o assunto. Só se podem tirar duas conclusões. Ou todas estas pessoas foram atingidas por uma súbita falta de tempo e disponibilidade para pensar no assunto, ou então a esmagadora maioria desses comentários - com raríssimas excepções - não foram feitos por pessoas interessadas nas sondagens, na sua qualidade ou nas suas consequências. Foram feitos com motivações estrita, única e exclusivamente políticas. Não é que não se soubesse, mas é bom dispormos agora da prova categórica.
Dito isto, passemos ao relatório. Neste post, dividi as conclusões em três tipos: constatações sobre divulgação/depósito dos resultados das sondagens; constatações sobre as próprias sondagens e seus resultados; e recomendações. Quanto às primeiras, não tenho comentários para fazer. As coisas são o que são, e só resta esperar que todos se sintam alertados para algumas omissões que continuam a existir nas fichas técnicas depositadas na ERC e que contribuam para as corrigir. O mesmo não sucede quer em relação à análise dos resultados das sondagens propriamente ditos quer em relação às recomendações contidas no relatório.
Sobre as recomendações, subscrevo facilmente muitas das que são feitas: a indicação clara dos procedimentos de amostragem; a inclusão do questionário completo no depósito feito na ERC; a apresentação dos resultados em números inteiros; a indicação de todas as variáveis usadas para a ponderação pós-amostral; ou a elaboração de manuais e cursos para jornalistas. O tema do abandono das casas decimais nos resultados foi aparentemente controverso na conferência onde o relatório foi apresentado, mas Portugal deve ser dos poucos países onde isso sucede:
"The field is not an exact science, nor can it measure minute degrees of difference. Readers should be skeptical of studies that report poll results in terms as exact as two decimal places (7.03 percent, for example). Even one decimal place is usually misleading."
"The figures for the actual election result are given to the nearest decimal place, since they are real figures. The polls results, on the other hand, are expressed only as whole percentages. This is because they are estimates, subject to sampling error (...), and while it is possible to express the poll results to any number of decimal places, it is implying a spurious level of accuracy to quote a figure of 34.3%, when it is really 34.3% plus or minus 3%."
"Don't use decimals. In reporting polling numbers, you should always use whole percentages, never results with decimal points. Since these results are always subject to error, using decimals implies a precision that does not exist."
Dito isto, há recomendações com as quais não concordo:
- Em primeiro lugar, a recomendação de que, em amostras por quotas, se utilize ponderação pelo último voto. Isto significa que, nas sondagens, os inquiridos deverão ser questionados sobre o partido em que votaram nas últimas eleições e, caso haja discrepâncias entre os resultados obtidos na amostra e os resultados eleitorais reais das últimas eleições, se deve proceder a reequilíbrio amostral. Não creio que caiba à ERC, nem a uma comissão de diagnóstico nomeada pela ERC, a recomendação da adopção de opções técnicas e metodológicas cuja bondade na melhoria das estimativas não seja inequívoca. E a verdade é que não é de todo evidente que isso suceda com a ponderação por recordação de voto. O tema é controverso, há quem utilize esta ponderação e quem não a utilize, e, mais importante, não há qualquer evidência empírica para o caso português de que a sua utilização melhore os resultados. Isto não implica que não se deva discutir a sua adopção. E até possível que se conclua que, afinal, é mesmo a melhor opção no caso português. Mas é matéria para discussão e estudo, não para uma "recomendação" emanada de uma comissão nomeada pelo regulador sem bases factuais.
- O relatório sugere que, em amostras por quotas, se mencione que "o erro é desconhecido". Mas isto é enganador. É uma recomendação que, à partida, parece fundada em bases técnicas, mas é-o apenas superficialmente. É verdade que o conceito de erro amostral e a sua estimação presume amostras probabilísticas, coisa que as amostras por quotas, por definição, não são. Mas a verdade é que as amostras ditas aleatórias também não o são. Mesmo quando seleccionam números de telefone por puro random digit dialing, a incapacidade de estabelecer contacto com inquiridos que teriam sido seleccionados aleatoriamente ou de obter deles respostas faz com que a amostra deixe de ser uma amostra probabilistica do universo que se pretende e se diz representar. E em sondagens presenciais, mesmo que seleccionem localidades, domicílios e inquiridos aleatoriamente, a utilização de cluster sampling introduz erro adicional ao erro subjacente a uma amostragem puramente aleatória. Não é impossível estimar esse erro, mas é bastante complicado e, de resto, controverso. Logo, a única coisa que uma ficha técnica pode razoavelmente dizer em qualquer sondagem é aquilo que a comissão sugere na 2ª parte da sua recomendação: "Se fosse utilizado um procedimento aleatório, o erro máximo seria de x%". O erro, em rigor, é sempre desconhecido, e dizer isso apenas nas amostras por quotas é que é, isso sim, enganador.
- A indicação da percentagem de entrevistas controladas, entrevistadores inspeccionados e número de entrevistas anuladas após inspecção seria sem dúvida uma informação útil a adicionar à ficha técnica depositada na ERC. Mas iludimo-nos se pensarmos que essa informação pode ser sempre depositada antes da divulgação pública de uma sondagem pré-eleitoral. Em estudos académicos ou qualquer outro tipo de sondagem que não esteja sujeito a um calendário apertado de divulgação, não hesito em apoiar a ideia. Mas é muito frequente que, de forma a que uma sondagem seja conduzida o mais perto possível da data das eleições, minimizando diferenças entre resultados de sondagens de intenção de voto e resultados eleitorais, não sobre depois tempo para conduzir todos os controlos e inspecções antes da divulgação pública dos resultados. Logo, em muitos casos, a indicação que a comissão sugere para a ficha técnica depositada na ERC antes da divulgação pública dos resultados não pode, pura e simplesmente, ser feita.
- O relatório sugere que é importante que as fichas técnicas passem conter informação sobre "abstenção estimada". Não contesto de forma alguma que as fichas técnicas depositadas na ERC e a divulgação que é feita das sondagens junto de amostras que visam representar a totalidade dos eleitores incluam informação sobre a parte que, quando questionada sobre se vai ou não votar, responde que não o tenciona fazer. Também me inclino bastante - por achar o tema quase consensual na literatura - para que um questionário contenha sempre uma ou várias questões, separadas da questão de intenção de voto propriamente dita, destinadas a apurar a probabilidade de que um inquirido vá votar. Nuns casos, essas perguntas servirão para estimar um "eleitorado provável" de entre o conjunto de eleitores inquiridos, dando às intenções de voto desses um peso maior (ou exclusivo). Noutros casos - que me parecem pouco inventariados no relatório - parecem servir mesmo para definir a própria amostra, fazendo com que seja exclusivamente composta de "eleitores prováveis". O que já não compreendo bem é a recomendação de que se apresente sempre um valor para a "abstenção estimada". "There is no standard, widely accepted way for estimating a person's likelihood of voting. Most polling organizations combine the answers to several questions to estimate the likely electorate, and some methods work better than others". Obrigar os institutos a apresentarem as frequências das perguntas que utilizaram para estes efeitos é uma coisa. Obrigá-los a apresentar uma "estimativa" da abstenção é outra. Não creio que a segunda deva ser exigida.
- Finalmente, o relatório recomenda a criação de um "programa informático" que "passe a calcular os diferentes intervalos de confiança (com níveis de significância de 5% e 1%) e, analisando tendências, ponha em evidência dados que saiam fora dos limites previstos, alertando para a necessidade de uma análise das bases técnicas da sondagem em questão". Acho óptimo que a ERC ou seja quem for recolha e disponibilize resultados de sondagens e de todos os aspectos técnicos ligados à sua realização. De resto, a ERC vai fazendo cada vez melhor trabalho neste domínio. Mas não sei como vai a ERC compatibilizar esta recomendação do relatório, especialmente no que diz respeito aos intervalos de confiança, com esta outra:
"No caso de sondagem por quotas, a indicação da margem de erro tem um sentido meramente indicativo do erro que se correria se ela fosse probabilística. Mas como não o é, o erro pode ser muito maior, maior, menor ou muito menor, pelo que em nosso entender se deve claramente referir que “o erro é desconhecido." (p. 23)
De resto, a afirmação de que "o erro pode ser muito maior, maior, menor ou muito menor" aplica-se igualmente a amostragem aleatória. E mais importante, claro, é este conceito de "saiam fora dos limites previstos". Na base do que acabam por a ser os resultados das eleições? Ah, mas isso é matéria para o próximo post.
A primeira coisa que queria notar é o silêncio sepulcral com que as conclusões desse relatório foram recebidas, com excepção de meia-dúzia de notícias divulgadas no próprio dia. Esse silêncio era expectável, mas não por isso menos instrutivo. Nos últimos meses, foram muitas as dezenas de comentadores, políticos e bloggers, dos mais inteligentes e informados até aos semi-analfabetos, que acharam que tinham coisas interessantes e importantes para dizer sobre as sondagens, os institutos que as fazem, os seus resultados, os seus métodos e as suas consequências. Passadas as eleições, e havendo informação produzida por uma fonte independente quer dos partidos quer dos institutos de sondagens, verifica-se que quase ninguém tem nada para dizer sobre o assunto. Só se podem tirar duas conclusões. Ou todas estas pessoas foram atingidas por uma súbita falta de tempo e disponibilidade para pensar no assunto, ou então a esmagadora maioria desses comentários - com raríssimas excepções - não foram feitos por pessoas interessadas nas sondagens, na sua qualidade ou nas suas consequências. Foram feitos com motivações estrita, única e exclusivamente políticas. Não é que não se soubesse, mas é bom dispormos agora da prova categórica.
Dito isto, passemos ao relatório. Neste post, dividi as conclusões em três tipos: constatações sobre divulgação/depósito dos resultados das sondagens; constatações sobre as próprias sondagens e seus resultados; e recomendações. Quanto às primeiras, não tenho comentários para fazer. As coisas são o que são, e só resta esperar que todos se sintam alertados para algumas omissões que continuam a existir nas fichas técnicas depositadas na ERC e que contribuam para as corrigir. O mesmo não sucede quer em relação à análise dos resultados das sondagens propriamente ditos quer em relação às recomendações contidas no relatório.
Sobre as recomendações, subscrevo facilmente muitas das que são feitas: a indicação clara dos procedimentos de amostragem; a inclusão do questionário completo no depósito feito na ERC; a apresentação dos resultados em números inteiros; a indicação de todas as variáveis usadas para a ponderação pós-amostral; ou a elaboração de manuais e cursos para jornalistas. O tema do abandono das casas decimais nos resultados foi aparentemente controverso na conferência onde o relatório foi apresentado, mas Portugal deve ser dos poucos países onde isso sucede:
"The field is not an exact science, nor can it measure minute degrees of difference. Readers should be skeptical of studies that report poll results in terms as exact as two decimal places (7.03 percent, for example). Even one decimal place is usually misleading."
"The figures for the actual election result are given to the nearest decimal place, since they are real figures. The polls results, on the other hand, are expressed only as whole percentages. This is because they are estimates, subject to sampling error (...), and while it is possible to express the poll results to any number of decimal places, it is implying a spurious level of accuracy to quote a figure of 34.3%, when it is really 34.3% plus or minus 3%."
"Don't use decimals. In reporting polling numbers, you should always use whole percentages, never results with decimal points. Since these results are always subject to error, using decimals implies a precision that does not exist."
Dito isto, há recomendações com as quais não concordo:
- Em primeiro lugar, a recomendação de que, em amostras por quotas, se utilize ponderação pelo último voto. Isto significa que, nas sondagens, os inquiridos deverão ser questionados sobre o partido em que votaram nas últimas eleições e, caso haja discrepâncias entre os resultados obtidos na amostra e os resultados eleitorais reais das últimas eleições, se deve proceder a reequilíbrio amostral. Não creio que caiba à ERC, nem a uma comissão de diagnóstico nomeada pela ERC, a recomendação da adopção de opções técnicas e metodológicas cuja bondade na melhoria das estimativas não seja inequívoca. E a verdade é que não é de todo evidente que isso suceda com a ponderação por recordação de voto. O tema é controverso, há quem utilize esta ponderação e quem não a utilize, e, mais importante, não há qualquer evidência empírica para o caso português de que a sua utilização melhore os resultados. Isto não implica que não se deva discutir a sua adopção. E até possível que se conclua que, afinal, é mesmo a melhor opção no caso português. Mas é matéria para discussão e estudo, não para uma "recomendação" emanada de uma comissão nomeada pelo regulador sem bases factuais.
- O relatório sugere que, em amostras por quotas, se mencione que "o erro é desconhecido". Mas isto é enganador. É uma recomendação que, à partida, parece fundada em bases técnicas, mas é-o apenas superficialmente. É verdade que o conceito de erro amostral e a sua estimação presume amostras probabilísticas, coisa que as amostras por quotas, por definição, não são. Mas a verdade é que as amostras ditas aleatórias também não o são. Mesmo quando seleccionam números de telefone por puro random digit dialing, a incapacidade de estabelecer contacto com inquiridos que teriam sido seleccionados aleatoriamente ou de obter deles respostas faz com que a amostra deixe de ser uma amostra probabilistica do universo que se pretende e se diz representar. E em sondagens presenciais, mesmo que seleccionem localidades, domicílios e inquiridos aleatoriamente, a utilização de cluster sampling introduz erro adicional ao erro subjacente a uma amostragem puramente aleatória. Não é impossível estimar esse erro, mas é bastante complicado e, de resto, controverso. Logo, a única coisa que uma ficha técnica pode razoavelmente dizer em qualquer sondagem é aquilo que a comissão sugere na 2ª parte da sua recomendação: "Se fosse utilizado um procedimento aleatório, o erro máximo seria de x%". O erro, em rigor, é sempre desconhecido, e dizer isso apenas nas amostras por quotas é que é, isso sim, enganador.
- A indicação da percentagem de entrevistas controladas, entrevistadores inspeccionados e número de entrevistas anuladas após inspecção seria sem dúvida uma informação útil a adicionar à ficha técnica depositada na ERC. Mas iludimo-nos se pensarmos que essa informação pode ser sempre depositada antes da divulgação pública de uma sondagem pré-eleitoral. Em estudos académicos ou qualquer outro tipo de sondagem que não esteja sujeito a um calendário apertado de divulgação, não hesito em apoiar a ideia. Mas é muito frequente que, de forma a que uma sondagem seja conduzida o mais perto possível da data das eleições, minimizando diferenças entre resultados de sondagens de intenção de voto e resultados eleitorais, não sobre depois tempo para conduzir todos os controlos e inspecções antes da divulgação pública dos resultados. Logo, em muitos casos, a indicação que a comissão sugere para a ficha técnica depositada na ERC antes da divulgação pública dos resultados não pode, pura e simplesmente, ser feita.
- O relatório sugere que é importante que as fichas técnicas passem conter informação sobre "abstenção estimada". Não contesto de forma alguma que as fichas técnicas depositadas na ERC e a divulgação que é feita das sondagens junto de amostras que visam representar a totalidade dos eleitores incluam informação sobre a parte que, quando questionada sobre se vai ou não votar, responde que não o tenciona fazer. Também me inclino bastante - por achar o tema quase consensual na literatura - para que um questionário contenha sempre uma ou várias questões, separadas da questão de intenção de voto propriamente dita, destinadas a apurar a probabilidade de que um inquirido vá votar. Nuns casos, essas perguntas servirão para estimar um "eleitorado provável" de entre o conjunto de eleitores inquiridos, dando às intenções de voto desses um peso maior (ou exclusivo). Noutros casos - que me parecem pouco inventariados no relatório - parecem servir mesmo para definir a própria amostra, fazendo com que seja exclusivamente composta de "eleitores prováveis". O que já não compreendo bem é a recomendação de que se apresente sempre um valor para a "abstenção estimada". "There is no standard, widely accepted way for estimating a person's likelihood of voting. Most polling organizations combine the answers to several questions to estimate the likely electorate, and some methods work better than others". Obrigar os institutos a apresentarem as frequências das perguntas que utilizaram para estes efeitos é uma coisa. Obrigá-los a apresentar uma "estimativa" da abstenção é outra. Não creio que a segunda deva ser exigida.
- Finalmente, o relatório recomenda a criação de um "programa informático" que "passe a calcular os diferentes intervalos de confiança (com níveis de significância de 5% e 1%) e, analisando tendências, ponha em evidência dados que saiam fora dos limites previstos, alertando para a necessidade de uma análise das bases técnicas da sondagem em questão". Acho óptimo que a ERC ou seja quem for recolha e disponibilize resultados de sondagens e de todos os aspectos técnicos ligados à sua realização. De resto, a ERC vai fazendo cada vez melhor trabalho neste domínio. Mas não sei como vai a ERC compatibilizar esta recomendação do relatório, especialmente no que diz respeito aos intervalos de confiança, com esta outra:
"No caso de sondagem por quotas, a indicação da margem de erro tem um sentido meramente indicativo do erro que se correria se ela fosse probabilística. Mas como não o é, o erro pode ser muito maior, maior, menor ou muito menor, pelo que em nosso entender se deve claramente referir que “o erro é desconhecido." (p. 23)
De resto, a afirmação de que "o erro pode ser muito maior, maior, menor ou muito menor" aplica-se igualmente a amostragem aleatória. E mais importante, claro, é este conceito de "saiam fora dos limites previstos". Na base do que acabam por a ser os resultados das eleições? Ah, mas isso é matéria para o próximo post.
domingo, novembro 01, 2009
A banda sonora da minha adolescência
O primeiro responsável pela banda sonora da minha adolescência morreu ontem. Houve outros, como Ricardo Saló e Aníbal Cabrita (no "Noites de Luar"), mas António Sérgio foi o primeiro que fez com que, na altura, a música que ouvíamos fosse a coisa mais importante das nossas vidas.
Duas canções que, estou quase certo, ouvi pela primeira vez no "Som da Frente". Mais adolescente que a segunda não existe. E contudo, ainda a tenho no i-Pod.
Duas canções que, estou quase certo, ouvi pela primeira vez no "Som da Frente". Mais adolescente que a segunda não existe. E contudo, ainda a tenho no i-Pod.
Subscrever:
Mensagens (Atom)