Campañas electorales cuantitativas
19 March 2015

Hay una distinción que parece escaparse a los artículos que he visto últimamente en prensa sobre la transformación tecnológica en las campañas electorales. Big data y experimentos, aunque estén intimamente relacionados, se refieren a aspectos cualitativamente diferentes del mismo proceso de penetración del instrumental analítico en la gestión de las campañas electorales.

Las campañas han aprendido a usar los experimentos para evaluar la efectividad de diferentes los modo de contacto con la masa de votantes. Eso ha servido para cuantificar retornos sobre la inversión de diferentes estrategias de contacto y para estimar que, por ejemplo, que cada voto adicional cuesta alrededor de \$29 si se utiliza una campaña puerta a puerta o más de $100 si se opta por usar mailing directo. Este tipo de resultados son imposibles de aislar fuera de un contexto experimental. En estos casos, la medición del tamaño de un efecto depende de la comparación entre dos submuestras que son idénticas en todo salvo en el tratamiento que se aplica a un grupo pero no a otro. El problema que intenta resolver un experimento es el de medir el impacto causal de una acción que está bajo nuestro control sobre un resultado, en donde el énfasis está en la noción de causalidad.

Pero los experimentos no son big data. Big data es una buzzword horrenda por cuya desaparición muchos rezamos y sin una defición precisa pero que por lo común se usa para describir estructuras de datos en las que predominan las siguientes características:

  1. Gran volumen.
  2. Alta velocidad de generación, por lo general en tiempo real.
  3. Diversidad en la tipología, incluyendo datos estructurados y desestructurados y quizás georreferenciados.

En la práctica, el big data o, más correctamente, los modelos de explotación en bases de datos masivas, se relaciona con la capacidad de personalización y predicción. La estructura del problema es sencilla. Si tenemos suficientes observaciones de un tipo de comportamiento dado (compras de un producto, visitas a una web, pero también el comportamiento electoral) es posible “aprender”, en un sentido probabilístico, la relación entre un resultado y variables que están asociados con él. El objetivo es adelantarse o predecir el comportamiento esperado de un nuevo ejemplo (un posible comprador, un nuevo visitante de nuestra web, un adulto del que no conocemos su intención de voto) usando la información que hemos observado sobre ejemplos similares en el pasado. Si la relación entre variables y resultado es causal o no, es del todo irrelevante.

Esta es la diferencia fundamental. Un modelo predictivo (big data) nos permite anticiparnos a comportamientos individuales en una situación en el que las condiciones estructurales no cambian. Por otra parte, el objetivo de un experimento es estimar la reacción a un cambio y por tanto escoger la mejor opción dentro de un menú de alternativas. De ahí que si lo que queremos identificar la fortaleza de la orientación partidista de un individuo con el fin de centrar los esfuerzos en un grupo de alta elasticidad al contacto, un modelo predictivo que asigne probabilidades de comportamiento electoral basándose en información que es observable sea la alternativa natural. Por otra parte, la decisión sobre qué modo de contacto usar o incluso sobre qué mensaje transmitir es al final una pregunta que requiere una comparación entre qué ocurriría si un individuo es o no es contactado, y esa es la estructura típica de un experimento.