Читать книгу Por un cambio en la economía - Gonzalo García Andrés - Страница 12
4 LA CONTRARREVOLUCIÓN DE LAS EXPECTATIVAS RACIONALES
ОглавлениеQNo se encuentran buenos economistas menores de cuarenta años que se identifiquen como keynesianos. En efecto, la gente se ofende cuando se le denomina keynesiano. En los seminarios de investigación, la teoría keynesiana ya no se toma en serio; la audiencia empieza a murmurar y a reír por lo bajo.
ROBERT LUCAS
Todos los economistas modernos somos, en algún grado, clásicos. Todos enseñamos a nuestros alumnos la optimización, el equilibrio y la eficiencia de los mercados.
GREGORY MANKIW
LA LABOR DE ZAPA DEL MONETARISMO
Mientras los paladines de la Síntesis libraban batallas con los críticos del paradigma neoclásico, había quien ya empezaba a cuestionar el modelo macroeconómico keynesiano convencional y su utilización para la formulación de políticas. El capitán de esta columna neoclásica con residencia en la Universidad de Chicago era Milton Friedman.
Durante la década de 1960, Friedman y sus seguidores empezaron a cuestionar los supuestos sobre las principales leyes psicológicas del modelo IS-LM de la corriente keynesiana. Se trataba de minar el modelo desde dentro, cambiando los parámetros estructurales de cada función de oferta y de- manda, lo que modificaba las conclusiones sobre la eficacia relativa de las políticas fiscal y monetaria.
Su propuesta equivalía a adelantar el largo plazo con el que funcionaba la esquizofrenia de la Síntesis. A medida que se sucedían los años de crecimiento y estabilidad, el marco de incertidumbre, alta preferencia por la liquidez e inestabilidad de la inversión parecía quedar desfasado. Y Friedman y los monetaristas empezaron a socavar los componentes de la teoría de la demanda agregada y de la concepción del mercado de dinero keynesianos con trabajos de base empírica. Sus conclusiones apuntaban a una demanda agregada mucho más estable de lo que Keynes había dejado entrever. Y destacaban también la primacía de la cantidad de dinero a la hora de determinar la renta nominal, considerando que la función de demanda de dinero era una función estable de las variables de las que dependía (la renta, la riqueza y los precios de los activos, incluidos los tipos de interés). Aun así, Friedman no hizo sino generalizar el enfoque de cartera de Keynes en su teoría de la demanda de dinero, incluyendo un conjunto amplio de activos financieros y reales.
Friedman y el monetarismo iniciaron un programa de investigación nuevo cuyo objeto era la reconciliación de la teoría microeconómica neoclásica con la explicación de los fenómenos macroeconómicos básicos: el ciclo, los efectos reales del dinero y la posibilidad de desempleo involuntario. A pesar de su concentración en la relación entre el dinero y la renta nominal y en la demanda agregada, el meollo del programa de investigación era el mercado de trabajo. Tras la experiencia de la Gran Depresión y la destrucción en la economía real causada por la debacle financiera y monetaria, resultaba mucho más difícil fundamentar la teoría cuantitativa del dinero y la dicotomía entre lo real y lo monetario.
El monetarismo de hecho se fundó sobre una relación estable y directa, revelada por el trabajo histórico empírico de Friedman y Anna J. Schwartz, entre la cantidad de dinero y el PIB nominal. Se aceptaba, por tanto, que el aumento de la cantidad de dinero generaba un incremento en la demanda nominal, una parte de la cual se satisfacía con aumentos de la producción real si existía capacidad ociosa. Por eso, la clave de la reconciliación de la visión neoclásica con la macroeconomía residía en la oferta agregada. La vía para restaurar las tesis neoclásicas era demostrar que la curva de oferta agregada tendía a ser perfectamente inelástica (con pendiente próxima a infinito).
Había que refutar la curva de Phillips como relación estable en el corto plazo entre inflación y desempleo. En su discurso ante la American Economic Association de 1968, Milton Friedman empezó a socavar los cimientos de la oferta agregada keynesiana con el concepto de la tasa natural de paro y la introducción de expectativas adaptativas sobre la inflación (Edmund S. Phelps había publicado un artículo con un análisis similar un año antes). El razonamiento era sencillo: los trabajadores no admitirían reducciones del salario real de manera permanente. La producción y el empleo solo se podrían aumentar por encima de sus niveles de equilibrio de manera temporal, engañando a los trabajadores y a costa de acelerar la inflación. El aprendizaje de los trabajadores respecto a la dinámica del nivel de precios podía hacer que los intentos de las autoridades económicas por reducir el desempleo acabaran disparando la inflación sin conseguir mejoras duraderas en el paro.
EL ARMA DECISIVA DE LA RESTAURACIÓN NEOCLÁSICA
Los años setenta fueron testigos del triunfo de una suerte de contrarrevolución teórica gracias a dos elementos decisivos.
El primero fue el empeoramiento de la coyuntura macroeconómica. Desde la segunda mitad de la década de 1960, la inflación comenzó a aumentar, superando primero el 5 % y, como consecuencia de los choques del precio del petróleo, llegando a superar el 10% en Estados Unidos y en otras economías avanzadas. Pero ni bajó el paro ni se mantuvo el ritmo de crecimiento de la primera mitad de aquel decenio; las políticas keynesianas solo consiguieron moderar el impacto real de los choques externos, y a costa de arraigar una inflación demasiado elevada.
El segundo elemento, el golpe de mano definitivo contra la revolución keynesiana, llegó con la «hipótesis de expectativas racionales», que permitió a estos «nuevos clásicos» retomar una posición dominante en la ciencia económica.
Robert Lucas, de la Universidad de Chicago, y Thomas Sargent, entonces en la Universidad de Minnesota, rescataron la noción de expectativas racionales que había empleado John Muth (1961) para convertirla en la base de un nuevo concepto de equilibrio que reconciliaría de manera definitiva la microeconomía neoclásica con la explicación de los fenómenos macroeconómicos. Se trataba de combinar la versión sofisticada del modelo de equilibrio general con el azar y la información incompleta.
La hipótesis de expectativas racionales (HER) es una forma de entender cómo los agentes económicos se enfrentan con el carácter imprevisible (aleatorio, estocástico) de la vida económica. Después de la Teoría general ya no parecía posible pensar la economía sin introducir el azar. Y la manera en la que la economía neoclásica acabó integrando el azar en su visión del mundo es esencial para entender la evolución del paradigma dominante en las últimas décadas y su incapacidad para hacer inteligible la crisis financiera.
En 1944, John von Neumann y Oskar Morgenstern introdujeron el riesgo en la teoría de la elección del consumidor. Supusieron que los agentes se enfrentaban a un conjunto de loterías o juegos, que les permitían consumir distintas cantidades de la misma mercancía con probabilidades que variaban según el «estado de la naturaleza» que se produjera.1 Con una axiomática sobre las preferencias sobre loterías, construyeron una teoría de la elección según la cual el consumidor elegiría maximizando su utilidad esperada (el producto de las probabilidades por la utilidad del consumo en cada estado de la naturaleza).
La irrupción del riesgo era perturbadora para la visión mecánica de la economía. La gran mayoría de los agentes se podía considerar aversa al riesgo y, por tanto, estaba dispuesta a pagar para eliminarlo. ¿De dónde provenía? ¿Quién debía soportarlo? ¿Cuáles eran sus implicaciones normativas?
Durante las tres décadas siguientes, quedó claro que el riesgo no era un impedimento para el buen funcionamiento de la coordinación de los planes de transacción a través del mercado, siempre que la infraestructura de los mercados se expandiera lo suficiente. La diversidad de preferencias respecto al riesgo permite la creación y desarrollo de mercados donde se intercambian riesgos, de manera directa o incorporados a activos financieros.2
Lucas y Sargent intentaban construir modelos macroeconómicos basados en un modelo de equilibrio general dinámico y estocástico pero con agentes neutrales al riesgo. Para convertirlo en un modelo macroeconómico, necesitaban un supuesto acerca de la manera en que los agentes formaban sus expectativas sobre las variables estocásticas del modelo. Siguiendo la intuición inicial de Muth, concluyeron que los agentes forman sus expectativas utilizando toda la información a su alcance de forma eficiente. En términos matemáticos, esta hipótesis supone que la expectativa racional de una variable es la esperanza matemática de la variable condicionada a la información disponible.
Este concepto, que suena casi trivial, encerraba un potencial extraordinario.
Se acercaba a la realidad porque no excluía los errores en la predicción; pero de manera lógica excluía que esos errores fueran sistemáticos, en el sentido de que estuvieran correlacionados con la información disponible al formar la expectativa. Y mantenía intacta la capacidad de coordinación del mercado ante los choques estocásticos, porque los errores en la predicción se compensaban en agregado. El riesgo era solo ruido.... «ruido blanco».
Al mismo tiempo, la HER permitía construir modelos macroeconométricos basados en premisas microeconómicas neoclásicas, dejando en evidencia los modelos keynesianos. Lucas y Sargent (1979) señalaron que la forma de estimar los parámetros de las principales ecuaciones en los modelos keynesianos típicos era inadecuada.3 Los supuestos para facilitar la estimación (reducción del número de variables, determinación ex ante del carácter endógeno o exógeno de una variable) impedían que los parámetros fueran verdaderamente estructurales. El ejemplo más claro era que no se tomaba en cuenta la reacción de los agentes ante las políticas económicas. Si un trabajador anticipaba una inflación del 10% cuando la autoridad monetaria anunciaba un aumento de la cantidad de dinero del 10%, no incrementaría su oferta de trabajo y, por tanto, la política no tendría efecto.
Las conclusiones eran devastadoras. Estos modelos no servían para evaluar los efectos de distintas políticas, lo cual era su objetivo primordial. Su fracaso empírico durante la década de 1970 lo atestiguaba. Habían perdido su carácter científico. El futuro era la «macroeconomía del equilibrio», que volvía a los agentes racionales y al supuesto de mercados que se vacían con ajustes vía precios. Lucas, el menos templado de la pareja, se dejó llevar por el entusiasmo y declaró muerta la economía keynesiana.4
La HER se convirtió en pocos años en un componente básico del acervo del paradigma dominante. Y no fue por la relevancia empírica de los modelos macroeconómicos de sus principales proponentes. A pesar de los esfuerzos por calibrar los modelos para ajustarlos a las series temporales, la explicación del ciclo con un enfoque de equilibrio continuo en que las fluctuaciones de la actividad y el desempleo son producto de decisiones óptimas de los agentes, resulta poco plausible.5 Y las tesis sobre la inefectividad de las políticas macroeconómicas, ya sean en forma de ineficacia de la política monetaria sistemática (la vuelta a la neutralidad del dinero) o de la equivalencia ricardiana para la política fiscal,6 han sido profusamente refutadas por la experiencia.
Aun así, la HER ha tenido una gran influencia en la conducción de las políticas macroeconómicas, en particular en la política monetaria. Suministró el fundamento para la independencia de los bancos centrales y para la importancia de la credibilidad a la hora de alcanzar el objetivo de estabilidad de precios. En efecto, la HER subraya que la tarea del banco central es mucho más sencilla si los agentes se creen sus objetivos y conocen su función de reacción ante variaciones en la tasa de inflación.
La preeminencia de la HER tiene raíces metodológicas y epistemológicas. Como si se tratara de una nueva revolución marginalista, se extendió la idea de que, para hacer teoría macroeconómica científica, los modelos tenían que incorporar expectativas racionales.
¿TIENEN MEMORIA LOS PRECIOS DE LAS ACCIONES?
Durante la década de 1960, la extensión del análisis microeconómico neoclásico alcanzó también a la bolsa, que recuperaba algo de lustre después de su infausto protagonismo en la debacle acaecida en los años treinta. Los primeros trabajos se centraban en estudiar los elementos de las decisiones individuales sobre activos financieros: cómo definir el conjunto de elección (las carteras posibles de combinaciones de activos) y cómo caracterizar las preferencias en función de la rentabilidad y el riesgo.
En 1965 se acuñó una idea potente, que en cierto sentido anticipaba ya la HER, que derivaba de una cuestión práctica con gran trascendencia pecuniaria: ¿pueden predecirse los cambios en los precios de las acciones? Siguiendo un patrón frecuente en la historia del pensamiento económico, se trataba de una idea que un francés había avanzado de manera discreta, pero que no se había popularizado hasta que un par de anglosajones le dieron un contenido formal concreto. En este caso, el francés era Louis Bachelier, quien, en 1900, se había lanzado a escribir una Teoría de la especulación en la que concluía que las probabilidades de pérdida y de ganancia se igualarían, de manera que los precios fluctuarían aleatoriamente.
Y los anglosajones eran Eugene Fama y Paul Samuelson, quienes llegaron a la idea de que los precios de los activos no se pueden predecir, si bien por vías distintas. El primero trataba de dilucidar entre las pretensiones de los analistas técnicos, que aspiran a predecir los precios de las acciones en función de su comportamiento pasado, y los defensores del modelo de paseo aleatorio, que consideraban que no es posible ganar dinero de forma sistemática analizando las series históricas de precios.
Fama encontró apoyo empírico para la hipótesis de que los precios de las acciones no tienen memoria, que sus cambios son independientes. Al mismo tiempo, destacó que la distribución de probabilidad que genera los cambios en los precios no parece ser normal, sino que los cambios más pronunciados tienen una frecuencia notable, lo que dota a la distribución de «colas gordas» (una advertencia para inversores audaces). Interpretó, además, que la independencia en los cambios de los precios era el resultado de la eficiencia del mercado, en el sentido de que, dada la información disponible, los precios eran una buena estimación de los valores intrínsecos fundamentales.
En aquel momento, la hipótesis de eficiencia en los mercados financieros no tuvo una trascendencia enorme sobre el debate teórico, aunque sí generó una serie inacabable de estudios empíricos que contribuyeron a mejorar el conocimiento sobre el comportamiento de los precios de los activos financieros. Pero, con el tiempo, la noción razonable de que es muy difícil hacer dinero de manera sistemática en un mercado financiero se transformó en la idea de que los mercados financieros siempre reflejan la información fundamental disponible..., siempre tienen razón. Y el fundamento era el mismo que el de la HER: los inversores forman las expectativas para tomar sus decisiones utilizando toda la información disponible, con un único modelo de la economía.
NUEVA ECONOMÍA KEYNESIANA, NUEVA SÍNTESIS NEOCLÁSICA
En el verano de 1970, justo después de cumplir treinta años, George A. Akerlof publicó un artículo en el Quarterly Journal of Economics con el que comenzaba a cumplir su sueño: desarrollar una teoría microeconómica acorde con el espíritu de la Teoría general. Trabajando en la elaboración de un modelo macroeconómico, Akerlof se detuvo en el estudio de las ventas de automóviles usados, tratando de entender su volatilidad. Se dio cuenta de que la iliquidez del mercado de automóviles de segunda mano podía explicarse por la asimetría de información entre el comprador y el vendedor.
La incertidumbre sobre la calidad y la utilización del precio como señal de la calidad media de los bienes ofrecidos en el mercado atrofiaba el funcionamiento del mecanismo de mercado. En algunos casos, la reputación o las marcas podían solucionar el problema; en otros, incluyendo los referidos a los mercados de trabajo y crédito, el efecto negativo sobre la asignación podía tener implicaciones macroeconómicas significativas.
El artículo sobre el mercado de «limones» (así se llaman los coches de segunda mano defectuosos en Estados Unidos, lemons) muestra que la insatisfacción con la ausencia de una base microeconómica sólida en la Síntesis no era patrimonio exclusivo de los nuevos clásicos. Hacia finales de los años setenta, el ímpetu de aquellos en la defensa de las viejas ideas y su afán por derrocar al keynesianismo espolearon a los jóvenes discípulos de Samuelson y Solow que iniciaban sus carreras investigadoras en las universidades de ambas costas de Estados Unidos.
Durante la década de 1980, este numeroso grupo de economistas, del que forman parte figuras como Ben Bernanke, Janet Yellen, Joseph Stiglitz y Olivier Blanchard, realizó un conjunto de aportaciones que indagaban en los fundamentos microeconómicos de la macroeconomía keynesiana. Mankiw y Romer (1991) consideran que los dos rasgos comunes de esta «nueva economía keynesiana» (NEK) son: el rechazo a la neutralidad del dinero y la creencia en que las imperfecciones reales son esenciales para entender los ciclos y el paro.
Una primera línea de trabajo fue la explicación de la rigidez nominal (de los precios y salarios en dinero) como resultado de las decisiones de las empresas y los trabajadores. Ya fuera por la existencia de pequeños costes derivados de variar los precios, porque el beneficio de ajustar los precios fuera de segundo orden o porque se distribuyera entre todas las empresas creando una externalidad, el resultado era una respuesta lenta de los precios y salarios a cambios en la demanda nominal, lo cual permitía que variaran también la producción y el empleo.
Una segunda línea de trabajo se centró en las implicaciones de la competencia imperfecta. En efecto, cuando las empresas tienen cierto poder de mercado (lo más habitual en la realidad), el precio que maximiza el beneficio es superior al coste marginal de producción, de manera que las empresas siempre querrían vender más al precio de mercado. Si además existe exceso de capacidad y las empresas operan en un tramo en el que su coste marginal tiende a ser constante, la producción estará indeterminada y las empresas no tendrán incentivo en aumentarla hasta el nivel correspondiente al pleno empleo (Hall, 1986).
La tercera línea de trabajo estudió los fallos de coordinación, entendidos como aquellas situaciones en las que, existiendo equilibrios múltiples, los agentes no son capaces de alcanzar de manera descentralizada el equilibrio más favorable. Asumiendo que la demanda agregada determina la producción, hay distintos equilibrios con niveles de actividad y de empleo diferentes. Cambios en las expectativas (incluso no relacionados con las variables fundamentales) o interrelaciones entre los agentes que no se reflejan en los precios pueden dar lugar a fallos de coordinación.
Por último, el trabajo pionero de Akerlof fue seguido de numerosos trabajos que empleaban la información asimétrica para explicar fenómenos como el racionamiento del crédito o la persistencia de salarios reales superiores a los de equilibrio en el mercado de trabajo.
La NEK supuso un avance científico notable, adentrándose en la complejidad de la realidad económica con lucidez. A pesar de la sensación inicial de excesiva heterogeneidad, la integración de la rigidez nominal, la competencia imperfecta, la rigidez real y los fallos de coordinación constituía el embrión de una teoría coherente de las imperfecciones en el funcionamiento de los mercados. Pero la tendencia a la síntesis volvió a cruzarse en el camino, probablemente favorecida por el buen desempeño relativo de las economías desarrolladas desde principios de la década de 1990.
Asumiendo que el instrumento más riguroso para representar el funcionamiento de una economía agregada era el modelo de equilibrio general dinámico estocástico de los nuevos clásicos, la «Nueva Síntesis» (Goodfriend y King, 1997) se realizó introduciendo una curva de Phillips novedosa derivada de la rigidez nominal y la competencia imperfecta. Si la autoridad monetaria tenía suficiente credibilidad para mantener estables las expectativas de inflación, volvía a existir una relación positiva entre producción, empleo e inflación. Se conseguía así mantener la no neutralidad del dinero; de hecho el uso básico de este tipo de modelos ha sido la evaluación de la política monetaria. La inflación quedaba como la síntesis de los desequilibrios macroeconómicos; mientras no se descontrolara, no había motivo para la preocupación.
Pero el resto del sustrato teórico es clásico: optimización intertemporal por agente representativo, ajustes vía precios, expectativas racionales, perturbaciones exógenas como fuente de las fluctuaciones cíclicas..., equilibrio, en fin. En una de las exposiciones más completas de esta Nueva Síntesis, Woodford (2003) reconoce en varias ocasiones la importancia de las ideas neoclásicas, incluyendo el concepto de tasa natural de paro como referencia para el análisis de la política monetaria y la importancia del uso de reglas frente a discrecionalidad en la política monetaria.
En definitiva, los modernos keynesianos aceptaron dejar gran parte del terreno científico a Robert Lucas y compañía. En esta ocasión, el error fue más grave que en los años cuarenta y cincuenta, porque contaban con instrumentos microeconómicos sólidos, cuya profundización y aplicación generalizada podría haber dado lugar a un paradigma nuevo. Los nuevos keynesianos prefirieron quedarse en el papel de sofisticados ingenieros (Mankiw, 2006). Sus figuras más destacadas saltaron a la arena para mojarse en el día a día de la política económica. A ellos se debe, en gran parte, la respuesta firme ante la amenaza de una nueva depresión.7 Al mismo tiempo, la crisis es una muestra del fracaso de su programa de investigación, que no fue capaz de desarrollar sus elementos más innovadores para entender las raíces de la inestabilidad y del desequilibrio.