Acertar no es suficiente
22 June 2016

Si uno se fia de las encuestas de las últimas semanas, la predicción para el domingo parece una clara repetición de los resultados de diciembre. Que esto sea así no es nada sorprendente. Los partidos han intentado mantener movilizados a los votantes durante los últimos meses y lo más probable es que los votantes repitan voto. Es un resultado común en Ciencia Política que los comportamientos tienen más adherencia que las actitudes: puede que abandonemos a un partido que nos guste, pero es más difícil que abandonemos a uno por el que hemos votado.

Que las encuestas se hayan mantenido planas tiene otra implicación. Nuestra incertidumbre sobre cual será el resultado se tiene que haber reducido dramáticamente. Esto es relevante para los modelos de agregación de encuestas (tanto formales como informarles). Si nos tomamos en serio los datos y el modelo, debemos concluir que la probabilidad de una desviación es muy pequeña. Es decir, cada nuevo estudio que ha sido publicado que ha repetido los mismos resultados ha tenido que aumentar nuestra confianza en la predicción.

Pero eso abre un problema de validación ¿Cómo saber si nuestro modelo de agregación es correcto? Acertar en la distribución de voto agregado no es difícil y no constituye un test suficiente ya que no nos dice nada sobre la bondad del modelo: siempre podemos dar un intervalo de confianza lo bastante amplio como para asegurarnos no fallar. Lo que diferencia a un modelo mejor de uno peor es, por tanto, la cantidad de escenarios que cada uno de ellos considera probable. Sin embargo, validar la incertidumbre de un modelo cuando solo tenemos una observación del resultado electoral es complicado. Y más aún cuando la secuencia de datos que el modelo ha observado ha sido casi una constante. Ahí está el reto.