Tecnología y democracia

En el número más reciente de Letras Libres publico un breve ensayo sobre la relación entre tecnología y democracia. De la introducción:

¿Han afectado las tecnologías de la información la forma en la que se estructura la esfera pública —y por tanto la política—? No existe duda de ello: Libia, Egipto, Brasil, Turquía, Estados Unidos, España, Israel. Todos ejemplos de ello. ¿Son las tecnologías de la información un elixir democrático que se mueve en una misma dirección y que por sí mismo cambia y democratiza las estructuras políticas y económicas de un país? Tampoco hay duda de ello. Desde luego que no. No solo no lo hacen, los efectos de la adopción de estas herramientas pueden fluir perfectamente en el sentido contrario al de los ideales democráticos: más opacidad, control estatal más férreo y centralizado, más restricciones a la oposición, menos libertad de opinión e, incluso, menos libertades individuales. Ambos extremos son perfectamente factibles y a cuál nos acerquemos depende mucho más de los valores políticos de un determinado país o contexto social que de las herramientas tecnológicas utilizadas. Es decir, el uso de las tecnologías de la información en última instancia son un reflejo de los valores y aspiraciones políticas y morales —y no a la inversa, como con frecuencia se piensa y tiende a confundir; sobre todo desde que hace unos años se comenzara a recetar tecnología como cura para prácticamente cualquier mal democrático—.

El problema con el debate actual sobre el impacto de las tecnologías de la información en la política —reducido, en esencia, a los llamados tecno utopistas versus tecno fatalistas— es la falta de imaginación al intentar explicar las posibilidades y meandros que puede seguir la implantación tecnológica en la esfera pública. En partir de la premisa de que es una u otra posibilidad. De que en el fondo son mutuamente excluyentes. De que o vemos el resurgimiento de una forma de democracia pura, directa, diáfana, participativa o, por el contrario, nos hundimos en una distopía sacada directamente de las elucubraciones más siniestras de 1984. Y es que no es así. Las posibilidades no solo son bastante más amplias, son más complejas y dependen de innumerables sutilezas sociológicas, económicas y políticas que serán las que al final determinen el cauce que siga el uso de las tecnologías de la información en la esfera política. Si terminan fortaleciendo o debilitando la causa democrática.

El texto completo aquí.

De la privatización de la ciencia

“For better or worse,” said Steven A. Edwards, a policy analyst at the American Association for the Advancement of Science, “the practice of science in the 21st century is becoming shaped less by national priorities or by peer-review groups and more by the particular preferences of individuals with huge amounts of money.”

—En Billionaires With Big Ideas Are Privatizing American Science en The New York Times.

Creo, en definitiva, que es para peor. De consumarse, la pérdida de la ciencia como bien público —y para fines públicos— sería una tragedia para las economías avanzadas. Un factor, qué duda cabe, de mayor desigualdad social y desarrollo económico asimétrico. Un factor que sin duda acrecentaría —¿e institucionalizaría?— la brecha de lo que Tyler Cowen llama la “cognitive elite. Creo —sigo creyendo— en el estado y, por tanto, en la importancia de las “prioridades nacionales” cuando se decide cómo y en qué se investiga.

¿De dónde viene la desconfianza en el gobierno?

The Monkey Cage se hace esta crucial pregunta: “Why don’t Americans trust the government?” La respuesta viene en la forma de una simple pero reveladora observación: “because the other party is in power”. Que es otra forma de decir que no confiamos (y deslegitimamos) a aquellos con ideas distintas a las nuestras. Una clave fundamental para comprender el fenómeno que Francis Fukuyama ha bautizado como “vetocracia”. Es decir, sistemas democráticos avanzados paralizados por el poder de veto que tiene una ingente cantidad de actores que han encontrado la fórmula para defender el statu quo desde el bloqueo de sus instituciones.

El punto clave de la observación en The Monkey Cage está contenida en estos tres párrafos:

We offer a way to make sense of this discrepancy between our representatives and those they represent. We argue that polarization does exist in the electorate, but also contend that it is not ideological in nature. That polarization in the electorate is not ideological makes sense because 60 years of research suggests that most Americans do not think about politics ideologically. Instead, we uncover increasingly and deeply sour feelings that partisans now have about the other political party. A consequence of these negative feelings is vanishingly low trust in government when their party is out of power. As a result, public consensus rarely if ever develops on issues, and public opinion fails to nudge policymakers toward compromise.

We believe the absence of trust in government when run by the other party is a key reason why a public that is not ideologically polarized nonetheless tolerates the ideological excesses that are occurring in Washington. With little to no trust in government, Republicans in the electorate are not keen to nudge their representatives toward compromise when Democrats are in power. The same was true of Democrats at the end of the Bush presidency, when it was they who fundamentally lacked trust.

It is not that partisans love their own side’s ideas. Instead, they now deeply distrust their opponents’. As a consequence, public opinion does not encourage polarized politicians to rise above their basest instincts. Although public opinion did not create the polarization that has caused Washington to grind to a halt, it now reinforces it.

La entrada completa se puede leer aquí.

El mito de la incompetencia del Estado

(texto publicado originalmente en El País)

Al menos durante los últimos 30 años, la escuela económica conocida como de “agua dulce” (conservadora) se ha ensañado con un tema en particular: la incompetencia del Estado. De sus instituciones, su burocracia, sus programas de gasto. La crítica es aún más acentuada cuando se trata de la participación del Estado en temas de investigación, desarrollo e innovación. El Estado, según esta visión y especialmente en este caso, se debería de limitar a recitar el famoso mantra: laissez-faire, laissez-passer. Esto es, establecer las condiciones de competencia básicas y retirarse para que los mercados hagan su magia. Buena parte de la ideología conservadora moderna, de este y del otro lado del Atlántico, se ha construido más en repetir esta mentira 1.000 veces que en demostrar empíricamente la supuesta eficacia del repliegue del Estado.

Un debate fundamental, en un momento en el que el Gobierno recorta presupuestos de investigación como si no hubiera un mañana y no cuenta con una estrategia de largo plazo para colocar a España en el centro de la economía del conocimiento y la innovación.

La entelequia ideológica de la incompetencia del Estado se cae en pedazos, sin embargo, cuando miramos con detenimiento la evolución del espacio de la tecnología, la innovación y el papel del Estado durante el último medio siglo. Temas cruciales para el desarrollo económico como la creación de fuentes de energía, el transporte, la investigación y el desarrollo en ciencia básica y aplicada, la incubación de nuevas tecnologías, entre muchos temas más, apuntan precisamente en el sentido contrario. No solo el Estado ha sabido invertir recursos de manera estratégica y promover tecnologías críticas para el desarrollo económico; sin su participación directa, muchas de las innovaciones más importantes de las últimas décadas nunca hubieran visto la luz del día.

Ya en 1926, en su ensayo The end of laissez faire: the economic consequences of the peace, Keynes lo apuntaba: “Lo importante no es que el Gobierno haga las mismas cosas que los individuos ya están haciendo, que las haga un poco mejor o un poco peor; lo importante es que haga aquellas cosas que nadie está haciendo en el presente”. Y eso, precisamente, es lo que hicieron algunos Gobiernos a lo largo de la segunda mitad del siglo XX. Comenzando por el estadounidense.

Como pocos otros, el estadounidense ha sido uno de los más activos cuando se trata de invertir y apostar por sectores estratégicos. Sobre todo aquellos relacionados con la innovación y las nuevas tecnologías. La lista es inabarcable. Pero un breve repaso ilustra su importancia y extensión: desde la tecnología que permite ubicar el restaurante más cercano en un iPhone (Departamento de Defensa), hasta la que permite dar una instrucción de voz a un programa informático (Departamento de Defensa); pasando por las curas más eficaces contra el cáncer (National Institutes of Health). La investigación en energías renovables (American Recovery and Reinvestment Act; en China, el China Development Bank; en Brasil, el Banco Nacional de Desenvolvimento); el desarrollo de la infraestructura y los protocolos que se convirtieron en Internet (Departamento de Defensa). La tecnología detrás de la pantalla táctil de cualquier dispositivo móvil (Departamento de Defensa: sus orígenes están en la competencia entre Gobiernos durante la guerra fría). Son otros tantos ejemplos que fueron financiados y desarrollados inicialmente con recursos del Estado. Y esto por no hablar de la NASA y las incontables innovaciones que han surgido de los laboratorios de la agencia espacial (solo las llamadas “punta alar” al final de las alas de los aviones comerciales —desarrolladas por la NASA— ahorran miles de millones en combustible al año a la industria aeronáutica). O del CERN en Europa, uno de los laboratorios más avanzados del mundo.

Fue financiación estatal, también (en este caso de la National Science Foundation), la que permitió que dos ingenieros desconocidos trabajaran en el algoritmo que descifró la forma más efectiva de clasificar la web —mucho antes de que encontraran la fórmula comercial para fundar Google y convertirla en una de las compañías más rentables del mundo—. Lo mismo sucede en sectores como el farmacéutico (NIH), de nanotecnología (National Nanotechnology Initiative) y biotecnología (NIH nuevamente; o el Medical Research Council en Reino Unido). Según cálculos del MIT, en estos tres sectores el capital riesgo llega entre 15 y 20 años después de que fondos públicos hubieran establecido bases de investigación confiables para el capital privado. Un dato que en pocas ocasiones toma en cuenta el Estado cuando diseña políticas de I+D de largo plazo.

A una conclusión similar llega la investigadora de la Universidad de Sussex Mariana Mazzucato, en un fascinante nuevo libro titulado The entrepreneurial State: debunking public vs. private sector myths (Anthem, 2013), una explicación amplia sobre el papel del Estado en la innovación.

La confusión sobre el papel del Estado viene principalmente de la veneración ciega y absoluta por lo que se conoce como venture capital (capital riesgo). De pensar que es la única y monolítica fuente de financiación. De que solo se puede conseguir en el ámbito privado y que solo hace falta promover un sector nacional de capital riesgo potente para que los brotes verdes de la innovación comiencen a surgir por todas partes.

Cualquier análisis serio sobre los orígenes de la innovación apunta en la dirección contraria. Detrás de la mayor parte de los éxitos tecnológicos más importantes ha estado, invariablemente, la mano de la inversión estatal. Lo que algunos llaman capital riesgo público. Un tipo de inversión más estable, menos centrada en la cuenta de resultados de corto plazo, la especulación bursátil, aspectos comerciales y, más importante aún, enfocada en la innovación en el ámbito público. En utilizarla para resolver los grandes problemas sociales —y no solamente financiar las tecnologías comercialmente más rentables—.

Lo hace, sobre todo, creando lo que los economistas llaman “sistemas de innovación”. Es decir, “redes de instituciones, públicas y privadas, cuyas actividades e interacciones inician, importan, modifican y propagan nuevas tecnologías”. O, dicho de otra manera, la forma en la que se establecen los cimientos de una economía del conocimiento. La base a partir de la cual se construyen compañías y riqueza privada; la plataforma común de lanzamiento de tecnologías e industrias más sofisticadas (en muchos sentidos compañías como Apple, Google y la mayor parte del sector farmacéutico y aeroespacial, entre varios otros, podrían considerarse free riders de los sistemas de investigación del Estado).

Partimos, entonces, de una visión claramente distorsionada del origen de la innovación y el papel del mercado en una economía competitiva moderna. Sí, el capital privado es fundamental para desarrollar ideas, impulsar nuevas industrias y generar riqueza. Pero, de la misma manera —o incluso más importante—, el capital riesgo público es el que suele germinar el proceso y establecer la plataforma común amplia (en ocasiones prácticamente invisible).

Pensar que la innovación es un proceso puramente individual en el que mentes brillantes tienen un eureka en el garaje de sus padres no solamente es ingenuo, es tremendamente simplista y, al final de cuentas, terrible política de Estado. Las innovaciones con mayor impacto social siempre han formado parte de una compleja red de decisiones y cadena de pequeños pasos graduales de las que el Estado ha sido el impulsor clave.

Se puede ser un Estado liberal que deje a su suerte la investigación y el desarrollo; se puede ser también uno estatista que intente controlar y dirigir la economía desde las alturas; y, también, uno que diseñe políticas inteligentes y flexibles que establezcan sistemas de innovación que garanticen una base para que las empresas privadas prosperen sirviendo los intereses públicos. En esta época de crisis y redefiniciones, ¿qué modelo quiere seguir España?

Big data: de la intuición informada a la intuición cuantificada

(texto publicado originalmente en el número 64 de Economía Extrerior)

La explosión en la producción de datos no es solamente un fenómeno que concierne a la economía, las ciencias sociales o las disciplinas académicas que tradicionalmente han trabajado con números y estadísticas. La explosión es de tal magnitud y corta transversalmente en ámbitos del conocimiento tan distintos que no se puede abordar exclusivamente desde una disciplina. De las ciencias económicas al transporte publico, pasando por las políticas de sanidad —ámbitos muy diversos están siendo afectados por la irrupción de nuevas formas de medir, entender y organizar la información relacionada con estas actividades. Afecta también la forma en la que se establecen las jerarquías del conocimiento y se diseñan los procesos institucionales.

En el ámbito de las campañas electorales, la carrera presidencial de 2012 en Estados Unidos ofrece un pequeño microcosmo para entender la carrera de los datos y cómo está cambiando prácticas y organizaciones que hasta hace muy poco estaban blindadas de incorporar este tipo de información a sus procesos de toma de decisiones.

El éxito electoral de Obama en 2012 se basó en una sofisticada estrategia de datos que logró no solo hacer un microtargeting preciso y eficaz a los electores. Más importante todavía, permitió que la dirección de la campaña en Chicago contara con información precisa y accionable a lo largo del proceso que le ayudó a tomar decisiones cruciales basadas en la mejor información a su alcance. Del estado de las finanzas de la campaña al número de voluntarios disponibles en un día determinado en un condado remoto de Ohio; de sofisticados modelos que analizaban la complicada aritmética del Colegio Electoral a bases de datos que diseccionaban al electorado en base a cientos de categorías y criterios.

Con cifras de paro inusualmente altas, una recuperación económica débil que jugaba en su contra y un electorado muy dividido, una parte importante del éxito de la campaña se basó en construir una plataforma de información en tiempo real que informó las decisiones del equipo a lo largo de los más de doce meses del proceso. En el centro de esa plataforma, los datos como el nuevo elemento constitutivo de la información. Fuera quedaron los asesores políticos de antaño; los insiders consumados del partido e, incluso, los focus groups y las encuestas tradicionales. ¿Qué los reemplazó? El equipo de datos. Encabezado por el que seguramente será el flamante cargo de cualquier campaña del futuro: el chief data scientist.

Los primeros tres aparatados explican cómo los datos se han convertido en el centro de las campañas electorales —y muy pronto de las políticas públicas—. El cuarto y quinto ofrecen algunas recomendaciones sobre qué tendrán que hacer las organizaciones y partidos políticos en Europa y España para adaptarse a esta nueva realidad.

De los medios sociales a la estrategia de datos

En términos de innovación, cuatro años son todo una era en tecnología. 2012 se pareció poco a 2008 en relación al tipo de estrategia utilizada por el cuartel general de Obama. De la improvisación de la primera campaña basada en la web social (Facebook, correo electrónico, vídeos virales, etc.) se dio paso a una estrategia mucho más compleja que en su centro tenía una plataforma de datos. Es decir, una infraestructura informática de recolección de información en temas de interés para la campaña: votantes registrados, afiliación a los partidos, series históricas de votación, repositorios de encuestas y un largo, largo etcétera. ¿La finalidad? Proporcionar a la campaña una herramienta de información en tiempo real sobre el estado de la contienda. Convertir, en otras palabras, múltiples datos inconexos en información y tendencias útiles para tomar decisiones. De la macro estrategia y el mensaje general a micro decisiones sobre publicidad o colores utilizados en un correo electrónico enviado a votantes potenciales. Los datos informaban las decisiones.

El trabajo tradicional de encuestadores, asesores de comunicación e insiders de los partidos —los que han mantenido durante décadas la atención del candidato y el control de los ciclos electorales dentro de los partidos— perdió relevancia en un mundo abundante en datos en el que fenómenos antiguamente ininteligibles se pueden cuantificar, analizar y enmarcar de nuevas y más eficaces maneras (desplazando, por tanto, a los asesores tradicionales). En otras palabras, la operación de una campaña electoral se profesionaliza. El papel de los asesores de imagen y comunicación, por ejemplo, es desplazado por el de científicos sociales, expertos en estadística y politólogos. Los encuestadores tradicionales, por su parte, son reemplazados por informáticos con conocimientos de modelos estadísticos complejos que indagan más allá del carácter unidimensional —y muchas veces simplista— de las encuestas tradicionales.

El eje de este nuevo tipo de campaña se basa principalmente en la incorporación de tres perfiles profesionales al centro de la estructura de toma de decisiones: expertos en estadística, científicos sociales y hackers.

Los primeros dotan al equipo de una lectura más sofisticada de los números. La demoscopia tradicional pasa de las encuestas, los sondeos y los focus groups a una interpretación más amplia de una variedad muy diversa de datos. Demográficos, de comportamiento electoral, financieros, historiales de crédito, preferencias comerciales, barrios de residencia, etc. Todos cruzados entre sí y analizados de una manera distinta y novedosa. Aunque la existencia de ninguno de estos datos es nueva, la forma de recopilarlos, procesarlos y analizarlos sí lo es. Este cambio en sí mismo está modificando el funcionamiento interno y forma de tomar decisiones de las campañas. Los datos verificables, y no las intuiciones o el dictado de los insiders de los partidos, se vuelven el criterio clave de operación de las campañas. Se incorpora más información, se analiza de manera distinta y se vuelve en una pieza más central del proceso de toma de decisiones.

Los segundos, los científicos sociales —que pueden ser desde economistas expertos en presupuestos públicos hasta psicólogos especializados en patrones de voto—, vienen a reemplazar el trabajo de asesores de comunicación que durante décadas se han dedicado a “empaquetar” a los candidatos para aparecer y hablar en televisión. Se comienzan a dejar atrás los sound bites y se empieza a formular un discurso más complejo y matizado diseñado para la era de los medios de comunicación bidireccionales.

Finalmente, los hackers. El elemento disruptivo. Expertos en informática que saben, sobre todo, modelar los datos y la información de nuevas maneras. Es decir, coger sets de datos, encuestas, información demográfica, sets históricos de votación y darles una nueva interpretación. Cruzar información, relacionar datos aparentemente inconexos y establecer patrones entre diferentes fenómenos sociales a través de los números. La intersección de esta nueva forma de entender y utilizar los datos y el trabajo de prospectiva que hacen con ella estadísticos y científicos sociales fue la diferencia fundamental de la campaña de Obama en 2012.

En resumen, no solo son los datos, es la nueva manera de 1) recolectarlos 2) procesarlos/analizarlos 3) tomar decisiones en base a ellos.

El periodismo de datos como nuevo frente en la reconversión digital

El economista, periodista y analista de datos, Nate Silver, proporciona el estudio de caso más apto para entender la dimensión e implicaciones del cambio de modelo. Aficionado a las estadísticas del beisbol, saltó a la fama en 2008 cuando montó un blog independiente que comenzó a utilizar métodos de análisis de las estadísticas de ese deporte para entender mejor los números y las encuestas políticas. En la elección presidencial de 2008 predijo correctamente al ganador de 49 de los 50 estados.

En 2010 The New York Times le fichó y se convirtió de facto en el analista de encuestas del periódico neoyorquino. Su trabajo, una mezcla de análisis de encuestas tradicionales con una forma más sofisticada de interpretar sus resultados, ha cambiado súbitamente la jerarquía de la información en Estados Unidos. Atacado con virulencia por la prensa tradicional —sobre todo por los llamados pundits, los tertulianos que durante décadas han fundamentado sus opiniones en intuición o, en el mejor de los casos, secretos a voces dentro de los partidos u organizaciones—, Silver es considerado ahora el pionero de un nuevo género de información al que podríamos llamar periodismo cuantificable —en inglés, data journalism—. Es decir, información respaldada más por datos que por percepciones; más por el estudio serio de diversos fenómenos sociales que por las impresiones recogidas a pie de calle; más por el procesamiento riguroso de sets de datos históricos que por las agendas ideológicas de los medios de comunicación o las encuestadoras.

El trabajo de Silver es novedoso sobre todo porque aplica rigor y metodología a un campo que era monopolio de los insiders del proceso político —partidos, asesores, medios de comunicación, encuestadoras—. Utiliza los números de las encuestas tradicionales y les aplica una serie de criterios y valoraciones basadas en un índice de desempeño histórico confeccionado por él que le permite hacer una lectura más clara de las tendencias. Así, por ejemplo, mientras la mayor parte de los medios de comunicación pasaron el verano y recta final de la campaña de 2012 asegurando que era un cuerpo a cuerpo en el que por momentos adelantaba uno y en otros el rival, Silver se mantuvo firme en su lectura y dio a Obama a lo largo de la mayor parte del proceso la ventaja por la que terminó ganando —especialmente en los números del Colegio Electoral, los que realmente importan—. Un método de análisis, en suma, más científico que no solo se corrige a sí mismo (cada ciclo electoral permite ajustar el modelo, ponderando los criterios utilizados de acuerdo a los resultados), explica de manera más matizada fenómenos sociales complejos y su interacción con el proceso político y los resultados electorales. El propio Silver lo resume así: “Ahora se trata de los números —con sus imperfecciones— versus la demagogia de las opiniones”.

El futuro de las políticas públicas pasa por los datos

El cambio de paradigma en el manejo de la información no se limita a la arena electoral. Incluso, me atrevería a vaticinar —aunque llevará más tiempo y el camino será más sinuoso— el efecto último y más contundente será sobre la propia valoración y el diseño de las políticas públicas. Es decir, una reinvención en la forma en la que los gobiernos identifican, valoran, diseñan e implementan las políticas públicas. La abundancia de datos —los gobiernos, con diferencia, son los actores que más generan: de estadísticas de transporte a salud; de recaudación fiscal a números y tendencias de inmigración— y esta nueva capacidad para procesarlos están poniendo de cabeza el proceso de formulación de políticas públicas. Desplazan expertises y empoderan a nuevos actores para participar de un proceso que, si ha de velar por el cumplimiento del interés general, necesita de manera permanente la mejor información disponible (compitiendo así con la noción de “información perfecta” con la que en teoría operan los mercados).

A partir de ahora las decisiones públicas deberán de tomar en cuenta esta nueva realidad: además de los consensos parlamentarios y los pactos políticos, la medición certera de la eficacia —o ineficacia— de las políticas publicas se convertirá en un criterio fundamental para tomar decisiones. Una parte importante del desarrollo económico del siglo XXI dependerá de la capacidad de los países para adaptar sus instituciones y procesos de toma de decisiones —al final de cuentas, su burocracia— a esta nueva forma de utilizar los datos e información disponibles para tomar mejores decisiones.

La demostración empírica de la importancia de los datos y la información precisa en tiempo real durante la campaña presidencial de 2012 solo acelerará y ampliará esta tendencia.

El análisis de datos como condición sine qua non para la toma de decisiones

Comencé diciendo que la elección de 2008 se pareció poco a la de 2012 en términos de organización y uso de las tecnologías de la información. De la misma manera, se parecerá poco la forma en la que partidos y organizaciones fuera de Estados Unidos intenten adaptar el método Obama. A diferencia de 2008, cuando una parte importante del método giraba en torno a la web social, las campañas virales y la centralización del proceso de organización, en 2012 giró en torno a los datos y al trabajo que hacen con ellos disciplinas científicas. El método, por tanto, no se puede simplemente replicar.

Lo que sí se puede hacer es comenzar a preparar el terreno dentro de los partidos y organizaciones. Comenzar a cambiar la forma en la que se conciben las jerarquías internas y los procesos de toma de decisiones. El éxito último de las dos campañas presidenciales de Obama no fueron ni las redes sociales, los vídeos virales o su web de última generación. Ni siquiera el uso revolucionario de los datos. Fue, principalmente, el haber sido capaz de voltear de cabeza la jerarquía de su campaña. La forma de concebir el orden interno y cómo y quién tomaba las decisiones. De ser capaces de centralizar competencias al tiempo que se descentralizaban decisiones; de deshacerse de asesores innecesarios al tiempo que se incorporaban al equipo profesionales más jóvenes con competencias distintas a las típicamente esperadas en una campaña presidencial. De favorecer la competencia profesional y política a las lealtades ideológicas o de partido. De poner por encima el componente político del mensaje a la cosmética de la imagen y los eslóganes. En última instancia el éxito de Obama se debió a estas transformaciones. El uso inteligente de las tecnologías de la información simplemente lo asistió.

 El reto europeo

En relación específica a los datos y las nuevas posibilidades que se abren, el reto para Europa y España es doble. Son dos los componentes fundamentales detrás de su uso adecuado: la producción de datos en bruto (la materia prima) y los expertises (el know how) necesarios para hacer algo útil con ellos.

Obtener materia prima de buena calidad es un proceso largo y complicado que no se puede simplemente emular. Aunque pocos países tienen tan desarrollada la cultura de recolección de datos que tiene Estados Unidos, el crecimiento exponencial y la presencia de las tecnologías de la información en la vida cotidiana está acelerando ese proceso en la mayor parte del mundo (sobre todo en las economías avanzadas). En ese sentido, el elemento clave es el marco regulatorio. Es decir, la legislación que no solo protege y transparente los datos, sino también, que fomenta su recolección y uso racional de ellos. Aquí entramos en el campo de la importancia que tienen iniciativas sobre Gobierno Abierto (Open Government) y leyes de transparencia robustas y a la par con los tiempos.

Los partidos políticos en España que crean en la naturaleza abierta de los datos recolectados por las administraciones, deberán presionar para que Gobierno central y autonomías creen marcos regulatorios para la liberación de repositorios de datos ya existentes. La clave está en ordenar estos datos, publicarlos en formatos estandarizados legibles por ordenadores (machine readable) y crear canales de distribución a los usuarios finales. Que pueden ser desde las propias administraciones hasta universidades, medios de comunicación, think tanks, etc. Los datos comienzan a cobrar valor cuando se genera un ecosistema de usuarios e información en torno a ellos.

El entorno ideal para experimentar con datos es el gobierno local. Construir una cultura de datos de lo local hacia arriba facilita el ensayo y la adaptación a las necesidades de una determinada cultura política. Lo es también por los costes prohibitivos en muchos casos de iniciativas que intentan abarcar demasiados niveles y cortan transversalmente las competencias de los gobiernos. Aunque en España existen iniciativas puntuales de apertura de datos, sigue sin existir una forma original de leerlos, interpretarlos y relacionarlos con otros fenómenos. Sigue sin existir, más todavía, el ecosistema apropiado para que los datos pasen de las administraciones a los medios de comunicación, a los partidos, a la empresa privada y de allí, nuevamente,  se vuelvan a reciclar e intercambiar. El reto inicial, por tanto, comienza allí. En fomentar este círculo virtuoso.

Para conseguirlo habrá que lanzar iniciativas específicas para profesionalizar y sistematizar la recolección de datos a nivel local, regional, nacional y Europeo. Homogeneizar y estandarizar la legislación en la materia. No solo en los aspectos más obvios relacionados a la utilidad que puedan tener para las campañas electorales. Temas de salud, transporte, energía, entre muchos más serán claves en el futuro y contribuirán a crea una cultura de datos más robusta que se retroalimente constantemente (lo que en la jerga de los datos se conoce como feedback loops).

Lo mismo se puede decir de partidos y organizaciones hacia su interior. Fomentar la recolección, análisis y uso compartido de información es una tarea interna de las propias organizaciones. Además de la utilización eficaz de las tecnologías de la información, el cambio depende fundamentalmente de la transformación interna de las organizaciones. De derribar los obstáculos internos que limitan el uso eficaz de la información. De rediseñar las jerarquías. Aplanarlas un poco (solo un poco, no se trata de desaparecerlas) al tiempo que se privilegia una forma más profesional de entender el expertise y las competencias del equipo.

Lo que nos lleva al segundo punto, la importancia del know how. Aquí, los partidos y organizaciones se enfrentan al reto de abrirse y fomentar la incorporación de nuevos actores. Desde hackers e informáticos hasta académicos de universidades especializados en detalles oscuros y desconocidos del comportamiento electoral. Uno de los aspectos que más afectó (y puso en desventaja) a la campaña de Mitt Romney durante la elección de 2012 fue la aversión que ha provocado su partido en medios científicos y tecnológicos debido a su rechazo de fenómenos científicamente comprobados pero políticamente rechazados (el cambio climático es solo uno de ellos). Al final de cuentas se trata de atraer el mejor conocimiento disponible. Sin importar la proveniencia, ideología o cargos dentro de una campaña. Las estructuras partidistas y organizacionales, pues, se comienzan a reorganizar en torno al conocimiento. En torno a la mejor manera de obtenerlo, procesarlo y decidir en base a él. De la rapidez y eficacia con la que se consiga esta transformación dependerán los réditos que se obtengan.

Y lo mismo sucederá en muchos otros ámbitos ajenos a la competencia electoral. En la era de la abundancia de la información, el conocimiento se comienza a estructurar de una manera distinta. En esta nueva jerarquía, por debajo de la información y el conocimiento, se inserta una capa de datos que informa micro procesos que hasta hace muy poco era muy difícil cuantificar. Así, se comienza a establecer una nueva estructura que se compone por tres capas en forma piramidal: datos, información y conocimiento.

El reto, se trate de la academia, aquellos que diseñan políticas públicas o los que analizan la información financiera, será crear una estructura de recolección, procesamiento y toma de decisiones que se adapte mejor a este flujo. Una buena parte del valor que se añada a los procesos productivos en los próximos años vendrá precisamente de allí.

El reto de Obama: cambio y consenso

“Gané capital en esta elección, capital político; y ahora, pienso utilizarlo”. Las palabras son de George W. Bush. Las dijo al día siguiente de su reelección en noviembre de 2004.

Pocos meses después, Katrina, el devastador huracán, golpeaba las costas del Golfo de México y el principio del fin de su presidencia se comenzaba a escribir. Un año después perdía la mayoría tanto en el Senado como en la Cámara de Representantes; las aspiraciones políticas del presidente quedaban sepultadas. A lo largo de su segundo Gobierno, Bush no conseguiría aprobar reforma legislativa de calado alguna.

El calendario político en Estados Unidos es más caprichoso de lo que parece. Sí, en principio, un triunfo en las urnas garantizan a un presidente 48 meses de estabilidad parlamentaria para ejecutar su agenda y trabajar con el Congreso. En la práctica, sin embargo, la ventana de acción es mucho más corta. Especialmente cuando la crispación y división política son tan profundas. Como ahora.

La llegada del nuevo Congreso y el comienzo del segundo mandato de Obama pondrán a prueba como en pocas otras ocasiones las instituciones del país. Los dos retos fundamentales a los que se enfrenta el presidente durante los próximos cuatro años giran en torno a la administración de los tiempos políticos y en demostrar que las criticadas instituciones del país todavía valen para gobernarlo.

Comencemos por la gestión de los tiempos. Aunque Obama no entregará el poder hasta el 20 de enero de 2017, su verdadera ventana de oportunidad política es solo de entre 12 y 18 meses. Es decir, el verano del año que viene como límite. Después, comienzan las campañas de medio mandato al Congreso y el futuro a partir de entonces será todo menos cierto. Históricamente, un presidente en su segundo mandato pierde en las elecciones al Congreso un promedio de 30 miembros de su partido en la Cámara de Representantes y siete en el Senado.

Por tanto, la clave para Obama radica en moverse con rapidez. En saber gestionar el capital ganado en la elección y utilizar los cambios en los puestos políticos clave (en, al menos hasta ahora, tres ministerios de máximo peso: Estado, Defensa y Tesoro) para coger impulso y reorientar prioridades. La agenda de los segundos cuatro años no podría estar más cargada: reforma al sistema de inmigración, legislación para el control de armas, implementación de la reforma al sistema sanitario, Siria, el conflicto de Oriente Próximo, la relación con China y, quizá el tema más controvertido, el diseño de un plan de reducción del déficit público de largo plazo (que implica tanto reorientación de la política fiscal como recortes en la seguridad social).

Lo que nos lleva al segundo gran desafío: las instituciones y la crisis de gobernabilidad. La negociación in extremis a finales de año sobre un acuerdo para evitar la caída en el llamado “abismo fiscal” fue solo el último episodio en una larga lista de instancias en las que las instituciones políticas no han estado a la altura de las circunstancias (el acuerdo alcanzado solo aplazó dos meses el conflicto). The Economist lo llama “el preocupante patrón de disfunción de Washington”. La tendencia, en otras palabras, a poner por encima los intereses ideológicos, de partido o de grupos privados (lobbies) sobre los intereses públicos y los grandes temas estructurales que comienzan a acumularse y amenazar la solvencia del sistema político en su conjunto.

El reto último de Obama —y su legado— será demostrar que las instituciones de gobierno en Estados Unidos siguen garantizando la gobernabilidad eficaz. Más aún, que los complejos —y delicados— mecanismos de checks and balances consagrados en la Constitución (1789) continúan teniendo validez en una democracia mucho más compleja de la que diseñaron los padres fundadores. La modélica división de poderes y el eficiente engranaje institucional por el que se conoce a Estados Unidos han dado paso en la última década a un sistema dividido y atomizado que simplemente no logra cerrar los pactos necesarios.

Se trate de la desigualdad social, los excesos financieros, la tenencia de armas o la arquitectura fiscal, Obama tendrá pronto que demostrar que las instituciones de Gobierno están dotadas de mecanismos que de manera simultanea permitan el cambio y el consenso. Para ello, o desenfunda el revolver y enfrenta a la oposición, o bajo su tutela se enterrarán las esperanzas en un sistema de gobierno radical e innovador que ha sido la referencia durante al menos el último siglo.

¿Obama consolida la ventaja definitiva?

Publico en la Fundación Alternativas un análisis sobre el estado de la elección presidencial a menos de 50 días de los comicios.

Desde el punto de vista de las encuestas, la campaña presidencial de 2012 en Estados Unidos ha sido sorprendente por un factor: su estabilidad. Es decir, su falta de movimiento a lo largo de los meses en los que todo tipo de encuestas (diarias, mensuales, conservadoras, progresistas) arrojaban esencialmente el mismo resultado: Obama adelantaba a Mitt Romney (incluso desde antes de ganar la interna de su partido) por entre dos y tres puntos porcentuales. Si miramos la encuesta más exhaustiva de todas, la que realiza Gallup diariamente, comprobamos que su tendencia es más plana que las llanuras del Medio Oeste.

Elección de vicepresidente, viajes al extranjero, atentados terroristas, nada, parecía, alteraba la obstinada tendencia. Esto es, hasta los últimos días. Además de la ligera subida en las encuestas producto del llamado bounce de la Convención Demócrata -Romney no acortó la desventaja en Tampa-, el giro más revelador se ha dado en ese otro consenso de Washington: el mediático. A lo largo de los últimos días ha sido sorprendente ver cómo medios de todo el espectro ideológico comienzan a caracterizar la campaña de Mitt Romney como un fracaso. En el mejor de los casos, el consenso apunta hacia la pérdida de fuelle del candidato; en el peor, a dar la campaña por muerta señalando que será prácticamente imposible darle la vuelta a siete semanas de los comicios.

El texto completo por aquí.

¿Para qué sirve el gobierno en el siglo XXI?

Esa, como pocas otras, será la pregunta de fondo que se debatirá a lo largo de los próximos dos meses durante la campaña presidencial en Estados Unidos. En liza, dos formas de entender el papel del gobierno; dos programas políticos en las antípodas que conducirían al país por caminos muy distintos; dos candidatos tan disímiles como convencidos de su visión sobre el rol del Estado en la economía moderna.

¿Debe el Gobierno luchar directamente y combatir la creciente desigualdad social? ¿Más impuestos, más redistribución, más protección a grupos desfavorecidos? O, por el contrario, ¿menos regulación, menos impuestos, menos intervención del Estado como receta para el crecimiento? ¿Debe participar activamente en temas como el combate al calentamiento global, el desbordamiento de armas en las calles y la inmigración de sin papeles? Y, ¿hasta qué punto debe involucrarse en el establecimiento de las bases para el crecimiento económico futuro —infraestructuras, programas de investigación y desarrollo, políticas industriales que planifiquen y establezcan directrices y prioridades nacionales—?

Son algunas de las preguntas que se debaten en la guerra de los programas políticos. Lo que en inglés llaman policy (esa palabra clave inexistente en castellano que distingue entre hacer política y la arquitectura de las políticas publicas que termina siendo la diferencia fundamental entre la buena y mala política). La plataforma Republicana presentada en Tampa a finales de agosto es un ataque frontal al Estado. A sus instituciones, a las competencias del Gobierno y a su rol en la vida económica del país. Grover Norquist, un cruzado ideológico Republicano que lidera el movimiento anti impuestos, lo expresa con una sutileza gráfica escalofriante: “no buscamos abolir el Gobierno; simplemente queremos reducir su tamaño al punto que podamos arrastrarlo hasta el cuarto de baño y ahogarlo en la bañera”.

El triunfo de Mitt Romney en noviembre representaría la culminación de un proyecto político que se comenzó a fraguar en 1964 —tras la estrepitosa derrota de Barry Goldwater frente a Lyndon Johnson— y que tuvo a su máximo apologista en la figura de Ronald Reagan. El designio principal de Romney en el Despacho Oval sería corregir la falta de ortodoxia de George W. Bush —aumentó considerablemente el tamaño del gobierno— para de una vez por todas cerrar el círculo: desmantelar el New Deal de Franklin Roosevelt y la Great Society de Lyndon Johnson. En los pasillos en Washington se especula, incluso, con una presidencia kamikaze de un solo mandato centrada en conseguir ese objetivo sin considerar consecuencias electorales futuras. Devolver a Estados Unidos, en otras palabras, a ese mito fundacional en el que solo vale la libertad y el esfuerzo individual; cumplir el dictado tatcheriano según el cual la sociedad no existe.

La prescripción es sencilla: utilizar el déficit público como coartada para emprender un ambicioso programa de recortes federales. En tres niveles: rebaja de impuestos (sobre todo en los sectores más altos, siguiendo la filosofía de la trickle-down economics), recorte masivo de presupuestos —excepto en Defensa— y eliminado competencias del gobierno —desde limitando el rol de la Reserva Federal hasta liquidando la reforma sanitaria de Obama—.

Una campaña tediosa que comenzó como un concurso de popularidad entre las personalidades de Mitt Romney y Barack Obama ha dado paso a una clara —y cruda— elección entre dos formas nítidamente contrastadas de entender el papel del gobierno.

La reelección de Obama dependerá de su habilidad para articular una defensa firme y efectiva del gobierno. No tanto de su Gobierno como de la idea misma del gobierno. De sus instituciones, de su importancia en la vida pública y de su idoneidad para gestionar los grandes asuntos económicos. Dependerá, sobre todo, de su habilidad para desmontar esa famosa máxima del discurso inaugural de Reagan en 1981 que tanto daño ha hecho a las causas públicas y tanto ha impulsado a su vez a la agenda conservadora: “el Gobierno no es la solución a nuestros problemas; el Gobierno es el problema”. La reelección, y verdadero legado de Obama, se medirán en relación a su capacidad para demostrar lo contrario y dar una respuesta contundente a la pregunta ¿para qué sirve el gobierno en el siglo XXI?

El Partido Demócrata arropa a Obama

“Esta votación no es una simple elección entre dos candidatos o dos partidos políticos”, dice la plataforma oficial del Partido Demócrata presentada el lunes en Charlotte, la sede de su convención en Carolina del Norte. “La elección es entre dos caminos fundamentalmente distintos para el país y nuestras familias”.

El documento es la guía más específica para entender los planes de gobierno de Obama y su partido durante los próximos cuatro años. Desgrana posturas, describe objetivos y, sobre todo, marca diferencias con el programa rival. Intenta alejar el fantasma de convertir la elección del 6 de noviembre en un referéndum sobre Barack Obama.

La esencia de la plataforma demócrata para los segundos cuatro años de Obama gira en torno a dos temas fundamentales: la consolidación de la recuperación económica y asegurar que las políticas aprobadas en el primer gobierno tengan un sustento legal sólido y duradero.

El primer punto, el económico —el crucial del que depende todo lo demás—, al que más espacio dedica la plataforma, propone un programa de gobierno basado fundamentalmente en regresar a los niveles de impuestos que tenía el país durante la presidencia de Bill Clinton. Actualmente los ingresos del Gobierno (federal, estatal y local) rondan el 32 % del producto interno bruto. Muy por debajo de los niveles de cualquier economía avanzada. El objetivo de Obama es acercar la cifra al 40 % vía dos frentes. Subiendo impuestos para aquellos que ganan más de 250.000 dólares al año —ni un centavo de aumento para los que están debajo, promete Obama, en una decisión que lo coloca en una encrucijada difícil de cumplir; y, en el mediano plazo, rescindiendo de los recortes hechos por George W. Bush al comienzo de su presidencia —un tema cargado políticamente que los Republicanos han utilizado y lo seguirán haciendo para chantajear al Gobierno—.

Estabilizada la economía después de bordear el abismo en 2008-2009, Obama utilizaría su segundo mandato para acometer las reformas estructurales que le fueron negadas en los primeros cuatro años: el lanzamiento verdadero de una economía verde —creación de un sector económico sustentado en energías renovables—; el apoyo decidido a la ciencia, la tecnología y la investigación y el desarrollo; la reforma al sistema de inmigración priorizando no a los sin papeles, sino a los científicos e ingenieros necesarios para mantener al país en la punta del desarrollo tecnológico.

En suma, la plataforma busca ahondar y ampliar los temas que se comenzaron hace cuatro años pero que no se pudieron implementar por la fuerte resistencia que impuso el contexto económico heredado.

El segundo gran objetivo de la plataforma es asegurar legalmente las reformas que ya se realizaron. La preocupación principal para el partido es la reforma sanitaria aprobada en 2010 y amenazada por los republicanos en todos los frentes. Judiciales, estatales, federales y locales. En caso de que Obama perdiera la elección, sería muy difícil que la reforma —que fue incluso refrendada por el Supremo en junio pasado— sobreviviera los ataques republicanos. Aunque Romney no tendría el poder suficiente para tumbarla, sí podría crear los obstáculos necesarios para hacerla inoperante.

Y la reforma financiera. Otro sector en el que ya ha avanzado el Gobierno pero en el que se necesita ahondar más. Romney propone simplificar la regulación del sector sin especificar los detalles ni qué intereses se verían afectados. La plataforma Demócrata establece como prioridad controlar al sector hasta garantizar la estabilidad del sistema. Si ello requiere legislación que restringa severamente las actividades de los bancos —similar al Glass-Steagall Act de 1933— la pondrían en marcha. Promete, en síntesis, una solución de fondo a una crisis económica que se originó en el sector financiero.

La semana que viene ya hablaremos de la vuelta de Obama candidato y qué nos dice su discurso de mañana por la noche sobre sus posibilidades de ser reelecto e implementar su programa de gobierno cuatro años más.

Tampa radicaliza al Partido Republicano

La convención Republicana en Tampa oficializa el arranque de las campañas. Además de la nominación del candidato y los cuatro días de atención interrumpida que recibe el partido, lo más relevante del encuentro es la presentación del programa oficial. Es decir, la plataforma con la que propone gobernar durante los próximos cuatro años.

Aunque el candidato ya estaba en campaña desde hace meses, la posición final del partido se establece hasta la convención. La principal sorpresa es que la letra pequeña de las propuestas ubica al Partido Republicano todavía más a la derecha de la posición que el candidato había adoptado a lo largo de los últimos meses.

La particularidad de Mitt Romney como candidato es el viraje político que ha hecho a lo largo de su carrera y que nadie termina de entender. De respaldar posiciones típicamente Demócratas o de centro —reforma del sistema sanitario, una postura flexible respecto al aborto, posiciones fiscales de centro— ha pasado al ala más dura de su partido. En su edición más reciente, The Economist reta a Romney en portada formulando una simple pero incómoda pregunta: “Entonces, Mitt, ¿en qué crees realmente?

A dos meses de las elecciones y con el candidato en el centro de las miradas desde hace tantos más, la respuesta sigue siendo elusiva y poco clara.

Nadie sabe, por ejemplo, exactamente qué piensa sobre el tema de los inmigrantes sin papeles y la reforma al sistema de inmigración. Romney se ha refugiado detrás de algunos de los tópicos de su partido en el tema: más seguridad en la frontera, no a la legalización, condena a cualquier propuesta legislativa que pretenda desatascar el asunto. Mientras tanto, en Tampa, el partido ha incorporado a su plataforma oficial lo que se conoce como “self-deportation”. En otras palabras, la propuesta oficial del Partido Republicano afirma que el problema de la inmigración se resolverá mediante la auto deportación de todos aquellos que no tengan papeles. No es broma.

Algo similar sucede con un tema como el de la salud reproductiva de las mujeres. En términos generales, el discurso del partido condena temas como el aborto o la educación sexual. Lo hace en un plano vago en el que por lo general no se especifican detalles. Sin embargo, la letra pequeña de las propuestas presentadas en Tampa lo llevan mucho más lejos. Buscan eliminar cualquier tipo de financiación pública en temas de educación sexual; restringir lo más posible el acceso al aborto por medio de leyes imbricadas que parecen permitirlo pero que en la práctica lo impiden; e incluso buscan endurecer penas para desincentivarlo. Romney, como candidato, no toma posición. Solo asegura que nominará a jueces al Supremo que se opongan al aborto. En el matrimonio homosexual, más de lo mismo. La plataforma, tampoco es broma, directamente propone un régimen mucho más estricto para perseguir la “pornografía y el material obsceno”.

El Partido Republicano saldrá de Tampa con una apuesta redoblada: si por alguna vía puede colarse y ganar la elección de noviembre será desde un programa radical de derecha claramente contrastado con la candidatura de Obama. Llevar las propuestas a esos extremos es, por una parte, un síntoma de lo radicalizado que está el partido y, por otra y en última instancia, una constatación del mal estado de la candidatura de Romney. ¿Por qué apostar por llevar la plataforma a ese extremo si fuera adelante en las encuestas?

Lo hace porque no lo está y porque la apuesta fundamental de convertir la elección en un referéndum sobre el desempeño de Obama ha fracasado. En todas las cifras duras publicadas por incontables encuestas, Romney aparece por debajo en términos del manejo económico, de temas de género, de carisma personal y varios aspectos clave más.

La única vía para un triunfo Republicano es doble: necesita sacar a sus bases a la calle en grandes cantidades el 6 de noviembre y, en última instancia, que una carambola en el Colegio Electoral lo ponga por encima de los 270 votos necesarios por un margen muy ajustado.