He tratado de demostrar en otros trabajos que el período posterior al año 1984 corresponde a lo que propongo designar como “Proyecto Neoliberal” (o “Proyecto Histórico Neoliberal”, según la designación que originalmente planteé).1 Este proyecto emerge luego de la fase de crisis económica de inicios del decenio de 1980, cuyo momento culminante y más agudo se vivió en los años 1981-1982. La crisis actuó al modo de un factor de ruptura, un poderoso catalizador que aceleró la transición hacia un nuevo modelo económico y un nuevo modelo de Estado, todo lo cual, en conjunto, configurarán eso que llamo Proyecto Neoliberal. Este viene a sustituir al que he propuesto designar como Proyecto Desarrollista, el cual corresponde al período de dominancia socialdemócrata o, puesto de otra forma, al período de la Segunda República, el cual se extendería desde 1948 hasta 1979. Tomo 1948 como año inicial, teniendo presente la decisiva importancia que tuvieron las reformas introducidas por el gobierno de facto de la Junta Fundadora de la Segunda República, liderado por José Figueres Ferrer entre 1948 y 1949 -nacionalización bancaria y creación del Consejo Nacional de la Producción, CNP, y del ICE, entre otras- más la Asamblea Nacional Constituyente de 1949, que dio lugar a reformas de gran relevancia, como el voto de las mujeres y la creación del Tribunal Supremo de Elecciones, la Contraloría General de la República y del Régimen de Servicio Civil para la regulación del empleo en el sector público. Todo lo cual, en su conjunto dejó trazadas con claridad las líneas de lo que, a la larga, sería el Proyecto Desarrollista, con su bien reconocible impronta socialdemócrata. El decenio de 1940, particularmente convulso, fue posiblemente la fase transicional entre el viejo Proyecto Agroexportador, pero es seguramente cierto que el Período Desarrollista no es comprensible si no se no se toman en cuentas las reformas sociales de los primeros años cuarenta: Código de Trabajo, Garantías Sociales, fundación de la Caja Costarricense del Seguro Social y de la Universidad de Costa Rica. Esas reformas anticipan los énfasis del Proyecto Desarrollista y, al cabo, resultan un elemento definitorio que influye decididamente en los rasgos que este asume.
Quede esto planteado al modo de breve introducción, siendo que esa temática, que estoy trabajando por aparte, aquí no será discutida.
El neoliberalismo: sus orígenes
Ahora bien, ¿por qué hablar de “neoliberalismo”? Es necesario plantearse esta pregunta, precisamente, porque el concepto ha sido manoseado, dándosele una connotación descalificante. Ha pasado a ser una etiqueta antes que una designación teóricamente relevante. Sin embargo, intento en este trabajo abordarlo desde la segunda perspectiva, para nominar, en lo fundamental, un proyecto político-ideológico y, desde ahí, entrar a discutir las bases teóricas que lo alimentan y sustentan. Como ya lo he comentado en trabajos previos, el concepto emerge en el contexto de la Gran Depresión del decenio de 1930, a partir del Coloquio Lippmann, realizado en París, agosto de 1938. Quin Slobodian (Slobodian 2018) demuestra que fue en este Coloquio donde por primera vez se habla del “nuevo liberalismo” o “neoliberalismo”. En 1947, la Conferencia de Mont Pelerin (Guillén Romo 2018) que, bajo la conducción de Friedrich Hayek reunía a toda una constelación de figuras intelectuales de muy alto nivel, sentó las bases desde las cuales se desplegaría, en los años y decenios siguientes, una ofensiva ideológica y política de alcances mundiales, la cual, apoyada por los diversos desarrollos teóricos a los que haré referencia en este artículo, logrará que, gradualmente, el neoliberalismo gane influencia a nivel mundial, hasta llegar a ser, desde inicios de los años ochenta, la propuesta política e ideológica dominante.
El hecho de que, en 1937, se creyera necesario reivindicar un “nuevo liberalismo”, testimoniaba el hecho de existía convencimiento en el sentido de que el “viejo liberalismo” -el liberalismo clásico decimonónico- afrontaba una grave crisis, y, en particular, una notoria pérdida de influencia y prestigio, la cual seguramente se vio agravada por la Gran Depresión de los treinta, que claramente desafiaba la visión del capitalismo, como un sistema armónico y estable, según la imagen que ofrecía la teoría económica entonces dominante. Evidentemente, hablamos, aquí, sobre todo, del liberalismo en su faceta propiamente económica. Ya Keynes lo había anticipado en un ensayo de 1926 que, no por casualidad, se titulaba “El fin del laissez faire” (Keynes 2009 (1933)). Incluso el “New Deal” de Roosevelt, una respuesta obligada, y en cierto modo ad hoc, frente a la crisis económica, era, en sí mismo, motivo de alarma, por el nivel de intervencionismo estatal que implicaba y su deliberado propósito de regular los mercados y respaldar las organizaciones sindicales. Por su parte, “Camino de Servidumbre”, devenida una de las obra clásicas de Hayek (Hayek 2020 (1944)), inicialmente publicada en 1944, es un alegato apasionado contra esa ideología “colectivista” y “estatizante” que tanto alarmaba a los liberales de la época, y en la cual, con ligereza y atropellamiento, Hayek embutía lo mismo el estalinismo soviético o el nazismo hitleriano, que el New Deal de Roosevelt o el proyecto socialdemócrata que, por entonces, empezaba a desplegarse en Suecia. Y, ciertamente, esta obra reflejaba aquel clima intelectual, así como la amargura y desconcierto que afectaba a los liberales de la época y que los indujo a buscar la fundación de un “nuevo liberalismo”. En el recién mencionado libro, así lo dejaba en claro el propio Hayek:
Lo que aquí nos preocupa es mostrar cuán completamente, aunque de manera gradual y por pasos casi imperceptibles, ha cambiado nuestra actitud hacia la sociedad. Lo que en cada etapa de este proceso de cambio pareció tan sólo una diferencia de grado ha originado ya en su efecto acumulativo una diferencia fundamental entre la vieja actitud liberal frente a la sociedad y el enfoque presente en los problemas sociales. El cambio supone una completa inversión del rumbo que hemos bosquejado, un completo abandono de la tradición individualista que creó la civilización occidental (64).
Una vez fundada la Sociedad de Mont Pelerin, y conforme esta diseminaba su influencia, creaba entidades adscritas en diversos países y empujaba el surgimiento de “think tanks” que promovían sus planteamientos, algunas obras contribuyeron significativamente a difundir y popularizar a nivel mundial esta propuesta político-ideológica, entre las cuales cabe destacar las siguientes: de los esposos Milton y Rose Friedman, sus libros “Libertad para Elegir” (M. R. Friedman 1993 (1979)) y “Capitalism and Freedom” (M. R. Friedman 1963), así como “Los Fundamentos de la Libertad” de Hayek (Hayek 2020 (1959)). La influyente idea, formulada por Hayek, según la cual el mercado viene a ser como una especie de mecanismo cibernético que, de forma anónima e impersonal, procesa, sistematiza y coordina información dispersa, aparece formulada con especial claridad en la mencionada obra,2 dentro de lo que, en su conjunto, constituye un poderoso -pero siempre polémico- alegato sobre la noción de libertad que ha predominado en la corriente neoliberal. En una formulación, algo más laxa, pero muy influyente en la corriente austríaca, el asunto queda planteado como al modo de un proceso de aprendizaje que, guiado por las señales de los precios y a través de un ejercicio de prueba y error, lleva a la adopción de las decisiones más eficientes (Zanotti 2022).
A fin de ilustrar adicionalmente la influencia de estas obras, es interesante observar cómo, en “Libertad para elegir”, los esposos Friedman anticipaban la propuesta llamada de “Garantías Económicas”, que, en el contexto costarricense, fue formulada por el expresidente Miguel Ángel Rodríguez. Así en las páginas 414-415 hablan explícitamente de una “ Declaración de Derechos económica” (sic) con el fin de “limitar el poder del estado en las áreas económica y social” e “invertir una actuación del Estado cada vez mayor” (414). No solo hay una notable similitud en cuanto a forma de designar la propuesta (“Garantías Económicas” versus “Declaración de Derechos económica”), sino que, además, los objetivos son prácticamente idénticos.
Más allá de estas obras, en parte filosóficas (en particular la de Hayek), en parte propagandísticas (en especial, la primera citada de los Friedman), hay todo un rico y amplio bagaje teórico que da sustento, presuntamente científico, a las propuestas del neoliberalismo. En una de las vertientes de este último, la llamada “economía austríaca” que es, también, la más radicalizada, hay obras fundacionales anticipatorias, de inicios del siglo XX. Entre ellas, y en lugar destacado, las siguientes: “Valor, capital, interés”, de Eugene von Böhm-Bawerk (Böhm-Bawerk 2009) y “La teoría del dinero y el crédito” (Mises 2012).3 La noción de capital como “espera” y la atribución a esa “espera”, asociada al uso de métodos de producción “indirectos”, como la fuente principal que alimenta el avance de la productividad y el incremento de la riqueza, queda formulada en la obra de Böhm-Bawerk y ha pasado a ser central en la teorización de la escuela austríaca. Ahí está el núcleo teórico central que intenta explicar la capacidad expansiva y el dinamismo del capitalismo, como, asimismo, justificar la propiedad privada y la ganancia empresarial. Autores más recientes han radicalizado estas propuestas, dando lugar a un proyecto político e ideológico de anarcocapitalismo, lo cual seguramente representa la opción más extremista, no solo dentro de la economía austríaca, sino, más en general, dentro del pensamiento neoliberal. Seguramente el autor más influyente, dentro de esa corriente particular, es el estadounidense Murray Rothbard, especialmente desde su obra “Man, Economy, and State, with Power and Market” (Rothbard 2009 (1962)).
Si bien hay elementos, tanto epistémicos como metodológicos, que diferencian la corriente neoclásica austríaca respecto de la corriente neoclásica anglosajona, lo cierto es que ambas comparten un amplio espacio de coincidencias. Están ya hermanadas en sus fundamentos originales, puesto que las dos surgen a partir de la revolución marginalista del decenio de 1870. Esta última, aunque con antecedentes decenios atrás, eclosiona y gana visibilidad e influencia, desde tres centros, en forma simultánea y con tres grandes autores implicados: William Jevons desde Cambridge, Inglaterra; Carl Menger -precursor de la Escuela de Viena, Böhm-Bawerk y la actual economía austríaca- desde Viena, Austria; y León Walras, desde Lausana, Suiza. Si bien no fue el primero en recurrir a la formalización matemática en economía (ya en el siglo XVIII, Nicolás de Condorcet se le anticipó), si se reconoce que, en ese particular, al aporte de Jevons fue fundamental (Williams 2021). Por su parte, Schumpeter atribuye a Menger un mérito especial en la formulación de la teoría del valor subjetivo (Schumpeter 1983). Y, sin embargo, es posible que Walras, por medio de su teorema o hipótesis del Equilibrio General, haya dado el aporte más importante e influyente surgido en los marcos de esa “revolución marginalista” del decenio de 1870. Es un planteamiento que básicamente se formula en la sección III (“Teoría del intercambio de varias mercancías”) de su obra más importante: Éléments d'économie politique pure, originalmente publicada en 1874 (Walras 1987 (1874)). Se trataba así de responder a una inquietud que ya estuvo presente en Adam Smith y su Riqueza de las Naciones atinente a la forma o mecanismo por cuyo medio, una economía descentralizada, en la que concurrían múltiples productores que tomaban sus decisiones en forma autónoma, lograba coordinarse y satisfacer las necesidades de la sociedad. Walras trató de formalizar lo que en Smith aparecía como una intuición, y para ello recurrió a un sistema de “n” ecuaciones y “n” incógnitas. Y, sin embargo, la solución walrasiana apeló a un atajo de dudosa coherencia: la imaginación de un subastador que se encargaría de enunciar y ajustar los precios, hasta lograr que los mercados quedasen vaciados y las ofertas y las demandas coincidieran. Resulta como mínimo paradójico introducir ese mecanismo centralizado ad-hoc para explicar cómo funcionaba y se coordinaba una economía descentralizada. En todo caso, la noción de equilibrio general ha sobrevivido como núcleo central de la teorización neoclásica, sobre todo en su vertiente anglosajana, al cual, una y otra vez, y con el transcurrir de los años, la reflexión teórica regresa. En la economía austríaca, la idea sobrevive como al modo de una intuición implícita, de contornos difusos, mediante una representación de los mercados como al modo de un proceso de aprendizaje progresivo y gradual guiado por la información que transmiten los precios, el cual es susceptible de error, pero tiende a perfeccionarse con el tiempo, aproximándose, sin jamás alcanzarla, a una situación con cierta semejanza a la ficción del Equilibrio General walrasiano. Este planteamiento austríaco, tiene ciertas similitudes con lo que propone la hipótesis de las expectativas adaptativas formulada por Cagan, tal cual lo veremos más adelante.
Hacia la recomposición de la teoría neoclásica
Desde las bases puestas en el Coloquio Lippmann y la Conferencia de Mont Pelerin, y ya en el período posterior a la Segunda Guerra Mundial, un cuerpo teórico aparentemente renovado, va tomando forma como respuesta a la versión de la síntesis neoclásica de Keynes. Esta última había sido originalmente formulada por John Hicks (Hicks 1937), con aportes valiosos por parte de Halvin H. Hansen (lo cual queda bien recogido en su obra divulgativa (Hansen 1986)), si bien su mejor propagandista, que se encargó de popularizarla a nivel mundial, fue Paul Samuelson por medio de su famoso manual introductorio. Así, el keynesianismo de la síntesis neoclásica logró estatus hegemónico en el período de la posguerra y durante los decenios de 1950 y 1960 y hasta entrado el de 1970.
Esta versión del keynesianismo ha sido, en sí misma, fuente de controversia y crítica por parte de otras corrientes keynesianas, en especial el poskeynesianismo. Un buen resumen de lo cual es el que ofrece Marc Lavoie en su libro “Introduction to Post-Keynesian Economics (Lavoie 2006).4 La mencionada “síntesis neoclásica de Keynes”, es, básicamente, un planteamiento teórico que ofrece una relectura de Keynes, y, en particular, de su “Teoría General del Empleo, el Interés y el Dinero (Keynes 2014 (1936)), desde los presupuestos metodológicos y epistémicos propios del neoclasicismo, pero, además, expresándolo como al modo de un juego de equilibrios simultáneos de los mercados que es, en lo fundamental, una noción heredada del ya mencionado Modelo de Equilibrio General de Walras (Walras 1987 (1874)), lo cual queda claramente reflejado en el famoso modelo IS-LM, en que se fundamenta la macroeconomía del keynesianismo de la síntesis.5
Mas, en todo caso, este último devino en el período posterior a la Segunda Guerra Mundial, un instrumental casi obligatorio en la gestión de las políticas económicas, no solo en las potencias industriales del norte, sino también en muchos países del sur, incorporado, a menudo, dentro de programas políticos de inspiración socialdemócrata. Entretanto, el frente político e ideológico emergente del neoliberalismo evolucionaba en un movimiento de gradual ascenso, logrando inspirar una contrarrevolución, desde el ámbito de la teorización neoclásica, que tomó forma a lo largo de esos mismos decenios, en que predominaba el keynesianismo de la síntesis neoclásica.
Esa contrarrevolución básicamente partió de una crítica metodológica: la ausencia de “fundamentos microeconómicos”, lo cual era una debilidad atribuida tanto al planteamiento original de Keynes como a su reformulación realizada por la síntesis neoclásica. Esta presunta debilidad metodológica implicaba también un posicionamiento epistémico en muchos sentidos distinto al del Keynes de la Teoría General y llevaba de vuelta a los orígenes del marginalismo, cuyas bases descasaban en lo que usualmente se conoce como “individualismo metodológico”. Para mejor entenderlo, baste recordar la formulación usual de los modelos de oferta y demanda: el punto de partida son las decisiones de optimización racional realizadas por los agentes individuales -la empresa o el consumidor- en forma independiente y autónoma. Eso permite definir la función individual de oferta y la función individual de demanda, y trazar las respectivas curvas. Posteriormente, las funciones y las curvas de oferta y demanda del mercado, se obtienen por simple agregación, o sea, como resultado de la suma de todas las ofertas y demandas individuales. Pero, esa operación de suma y agregación solo es posible desde supuestos altamente restrictivos, que prácticamente excluyen toda influencia sociocultural e histórica y ponen a cada agente individual a decidir como si estuviese metido en una especie de burbuja, por completo ajeno a cualquier influencia grupal o ambiental. Pero, igualmente, y en concordancia con lo anterior, se descarta que, en el proceso de agregación, puedan darse interacciones y retroalimentaciones entre los agentes, lo cual seguramente modificaría las decisiones individuales.6
Se proponía, entonces, que el mismo método fuese aplicado en la teoría macroeconómica. Puesto que esta se ocupa de los grandes agregados al nivel de la economía en su conjunto -el consumo, la inversión empresarial, el gasto del gobierno, el comercio exterior, según la conceptualización usual, de inspiración keynesiana- la explicación teórica debía construirse siguiendo similar procedimiento y los mismos pasos aplicados en la teoría microeconómica, o sea, desde los procesos de decisión y optimización a nivel individual hasta la determinación de los macroagregados globales. Fue eso lo que, al cabo de un proceso de progresión teórica que tardó alrededor de dos decenios en madurar, llevó a la llamada “nueva macroeconómica clásica”, designación bastante pretensiosa acuñada por los mismos autores responsables de esa elaboración teórica. Sobre esto último, volveré más adelante.
La hipótesis sobre las expectativas adaptativas
Ya en el decenio de 1950, Philip Cagan anticipó una hipótesis teórica que pone las bases para esta reformulación de la teoría macroeconómica: la hipótesis de las expectativas adaptativas, una idea que este autor había dejado formulada en su tesis doctoral de 1954 en la Universidad de Chicago y que ganó mayor tracción a partir de su trabajo sobre las hiperinflaciones (P. Cagan 1956). Años después, el mismo Cagan daría por superada su hipótesis originaria, considerando que la hipótesis de las expectativas racionales era superior (P. Cagan 1980). Básicamente lo que la hipótesis original de Cagan -la de expectativas adaptativas- planteaba es que los agentes económicos pasan por procesos de aprendizaje que les permiten adaptar su comportamiento y, en consecuencia, sus decisiones, de una forma tal que hacen ineficaces las políticas fiscales de tipo keynesiano, aplicadas por los gobiernos. Esos agentes “aprenden” que tales políticas eventualmente producirán más inflación y, al generar déficits en las finanzas públicas, llevan posteriormente a un aumento de la deuda pública y a incrementos de los impuestos. Así, con el tiempo, los intentos de las autoridades públicas por reducir el desempleo o estimular la actividad económica resultarán inútiles: los agentes económicos habrán aprendido la lección y ya no responderán al estímulo, porque anticipan sus consecuencias futuras. Esto recuerda un poco algunas ideas propias de la corriente austriaca, aunque su formulación formalizada por medio de las matemáticas -lo propio del neoclasicismo anglosajón- ofrece, por lo tanto, un relato teórico distinto.
Nótese que este argumento lleva implícitos dos supuestos. Primero, que las políticas fiscales que pretenden incentivar la economía y generar empleo, inevitablemente acarrean futuros incrementos en la inflación, la deuda pública y los impuestos. Y, segundo, y dado lo anterior, que su eficacia depende su capacidad para “engañar” a los agentes económicos. En el tanto estos no perciban, o no avizoren, aquellas consecuencias que, presuntamente, habrían de darse después de un tiempo, podrían “caer en la trampa” que las autoridades públicas les “tienden” mediante el incremento de la demanda derivado de un mayor gasto público.
El concepto de “tasa natural de desempleo”
El desarrollo posterior de esta idea lleva a su reformulación en términos maximalistas, tal cual quedaría formulado, posteriormente, en la hipótesis de las expectativas racionales. Pero, en el entremedio entre ambos momentos teóricos, hay algunos otros desarrollos importantes, que es necesario mencionar. Entre estos, uno muy significativo es el concepto de tasa natural de desempleo, el cual, pasados los años, como veremos más adelante, conserva una gran influencia, si bien en una versión parcialmente reformulada. Este concepto es una noción teórica desarrollada, en forma práctica simultánea, por Milton Friedman (M. Friedman 1968) y Edmund Phelps (Phelps 1968) (Phelps 1967) y surgió bajo la influencia (como lo admite el propio Friedman) del concepto de “tasa natural de interés” formulado originalmente por el economista sueco Knut Wicksell. En su formulación inicial, por parte de estos autores, el concepto se derivaba de la hipótesis de las expectativas adaptativas de Cagan, o sea, admitía procesos de ajuste y aprendizaje espaciados a lo largo del tiempo. Asimismo, esta tesis combina elementos básicamente de dos tipos: algunos inherentes a la naturaleza misma de los mercados capitalistas, otros en mayor grado vinculados a determinaciones institucionales (papel de los sindicatos, la legislación laboral, etc.). Los factores del segundo tipo tienden a actuar como una especie de dique que frena lo que el libre mercado sería capaz de establecer por sí solo, y, entonces, establece un piso o mínimo, infranqueable, a la tasa de desempleo. De tal modo la “tasa natural de desempleo” será, en un determinado momento, más baja o más alta, según el grado, mayor o menor, en el cual esas interferencias institucionales, o esas deformaciones inducidas en los mecanismos del mercado permitan que el mercado actúe para establecer un equilibrio óptimo. Dado todo lo anterior, la política fiscal se vuelve ineficaz en el sentido de que le resultará imposible reducir la tasa de desempleo por debajo de su nivel “natural”. Intentarlo solo producirá una consecuencia: más inflación. Lograrlo solo sería posible si se reducen las alteraciones y obstáculos que limitan el óptimo funcionamiento de los mercados.
La conceptualización inicial de Friedman y Phelps era insatisfactoria por imprecisa.7 Con el paso de los años, y procurando hacerla más operativa desde el punto de vista del ejercicio de las políticas económicas, el concepto de “tasa natural de desempleo” se metamorfoseó bajo una nueva designación: “tasa de desempleo no aceleradora de la inflación”, habitualmente designada como NAIRU por sus siglas en inglés (Non-accelerating inflation rate of unemployment). No está claro que esto haya resuelto los problemas del concepto original de Friedman y Phelps, en cuanto sigue siendo una noción imprecisa e inobservable, lo que, asimismo, genera críticas diversas y propuestas de replanteamiento desde diversos ámbitos, tal cual, por ejemplo, se recoge en los trabajos siguientes: (Stiglitz 1997), (Cross 1995), (Farmer 2013) (Fuentes López 2007). La idea es, básicamente, la misma: hace referencia al nivel de desempleo que permitiría mantener estabilidad en los precios en el largo plazo, solo que ahora, bajo esa nueva designación, deviene el foco de atención y criterio guía, desde el cual se formula la política monetaria de los bancos centrales. Esta última, por su parte, opera mediante una tasa de interés de referencia (la tasa de política monetaria en Costa Rica; la tasa de fondos federales en el caso de la Reserva Federal de Estados Unidos). El objetivo es incidir sobre las tasas de interés del sistema financiero en su conjunto, asumiendo que esa variable permite, a su vez, modular el nivel de la actividad económica y, por lo tanto, la tasa de desempleo, de forma que esta se ajuste a los objetivos de inflación definidos. O sea, el empleo pasa a ser una variable subordinada a la inflación: en función de esta se promueve o se sacrifica el empleo, lo que, en el fondo, significa que, en función del control de la inflación, se promueve o se sacrifica las condiciones de vida de la gente que, por esa causa, puede tener empleo o puede, alternativamente, perderlo. Por mucho que se lo quiera disfrazar de técnica, aquí también hay un orden de prioridades y, por lo tanto, una ideología.
Para el caso de Costa Rica, en (Álvarez Corrales 2019) se ofrece una estimación de la NAIRU. Los supuestos de base son muy simplificadores. Se empieza por el hecho de que se trabaja con las tasas de desempleo abierto, sin tomar en cuenta heterogeneidades que complejizan el panorama laboral de Costa Rica, como los relativamente elevados niveles de informalidad, y las reducidas tasas de participación laboral y de ocupación, cuya manifestación es especialmente aguda en el caso de las mujeres, así como la diversidad de situaciones que se observan según categorías de edad o niveles de calificación. Resulta altamente arriesgado emitir algún juicio sobre el empleo, si esos diversos aspectos no son considerados y, por lo tanto, resulta también arriesgado intentar establecer vínculos entre desempleo e inflación, partiendo de bases tan precarias. La propuesta formula algunos modelos econométricos (tan simplificados como son sus supuestos de base), si bien ensaya diversas variantes, para obtener, bien una NAIRU que toma un valor fijo, bien una NAIRU que fluctúa a lo largo del tiempo. En las conclusiones se admite la escasa utilidad de esa información, si se trata de utilizarla como herramienta para apoyar la toma de decisiones. Al cabo, queda la impresión de que este es un ejercicio especulativo cuyo objetivo es justificar la muy lamentable situación del empleo que se vive en Costa Rica desde al menos 2010, y el desinterés que, frente a esa situación, usualmente muestra el Banco Central. Es plausible que, en el fondo, las limitaciones que manifiesta un estudio como este sean reflejo de las carencias asociadas a la noción teórica de base, en cuanto la NAIRU, por las imprecisiones que les son inherentes y porque asume como un dato los diversos factores estructurales subyacentes atinentes a las falencias del modelo económico, por lo que termina deslizándose en un oxímoron: el intento por operar sobre cuestiones -el empleo- que tiene un trasfondo estructural, pero hacerlo desde instrumentos cuyo énfasis y alcances son cortoplacistas.
El replanteamiento de la “función de consumo”
Por otra parte, mucho antes que se planteara esa tesis sobre la “tasa natural de desempleo”, Friedman había desarrollado, en 1956, su “nueva formulación de la teoría cuantitativa del dinero” (M. Friedman 1956), así como había planteado nuevas propuestas sobre la función de consumo (M. Friedman 1957). En este apartado me referiré a este segundo aspecto, el cual tiene antecedentes y ramificaciones que es importante explorar con un poco más de detenimiento y que resultan muy ilustrativos.
La incorporación de la función del consumo dentro de la teoría económica es una innovación introducida por John Maynard Keynes, quien la incorporó en su célebre “Teoría general del empleo, el interés y el dinero” (Keynes 2003 (1936)) al postular lo que él designó como la “ley sicológica fundamental”, definida, de forma bastante parca, de la siguiente forma:
…consiste en que los hombres están dispuestos, por regla general y en promedio, a aumentar su consumo a medida que su ingreso crece, aunque no tanto como el crecimiento de su ingreso (115).
Si Keynes se hubiese quedado ahí, o sea, si se hubiese limitado a postular una relación directa, pero decreciente entre el ingreso y el consumo, posiblemente la idea no habría resultado tan polémica. La cuestión es que luego agregó precisiones que, con seguridad, tenían incómodas implicaciones políticas:
…un ingreso creciente irá con frecuencia acompañado de un ahorro mayor, y un ingreso en descenso, acompañado de un ahorro menor” para enseguida afirmar que estos factores “impulsarán casi siempre a ahorrar mayor proporción del ingreso cuando el ingreso real aumenta” y rematar diciendo que “si la ocupación y, por tanto, el ingreso total aumentan, no toda la ocupación adicional se requerirá para satisfacer las necesidades del consumo adicional (115-116) (los énfasis son del original).
Este planteamiento de Keynes tiene dos implicaciones importantes:
Primero: dada una determinada estructura de distribución del ingreso, las posibilidades de dinamización de la economía, a partir del consumo privado, están acotadas por la proporción decreciente de un ingreso nacional creciente que se destina al consumo.
Segundo: la redistribución del ingreso, desde los grupos más ricos hacia los más empobrecidos, tendrá efectos de dinamización sobre la economía, precisamente porque los sectores de ingreso más bajo consumen una mayor proporción del ingreso que reciben, mientras los más ricos dedican al ahorro una porción relativa más alta de sus ingresos.
Lo primero justificaría una política fiscal activa, sobre todo, en situaciones de recesión, cuando interesa recuperar el dinamismo de la economía. Puesto que el consumo privado tendría un efecto positivo decreciente, el movimiento ascendente debería ser sostenido por medio del estímulo fiscal. Si ya lo anterior tiene implicaciones políticas importantes, lo segundo -atinente el potencial dinamizador de la redistribución progresiva del ingreso- resultaría políticamente controvertida e incómoda para los teóricos neoclásicos, que, más allá del sofisticado aparataje matemático al que usualmente recurren, no logran ocultar sus simpatías ideológicas a favor de las clases propietarias y empresariales, que, generalmente, son también las más ricas y acaudaladas.
Lo anterior fue, seguramente, una de las razones que motivaron los esfuerzos teóricos, surgidos sobre todo en el decenio de 1950, en procura de replantear las ideas que legó Keynes.8 Irving Fisher proporcionó un antecedente teórico importante, con sus elaboraciones sobre la tasa de interés y su “modelo de elección intertemporal” (Fisher 1930), según el cual el valor de los bienes de capital está determinado por la tasa de interés que permite descontar a valor presente el flujo de los ingresos futuros derivados de esos bienes de capital. Es decir, el valor del capital, viene determinado por los ingresos derivados de ese mismo capital. Esto hace que esta noción fisheriana tenga un sesgo tautológico difícil de disimular, por más que intente teóricamente resolverlo al diferenciar los ingresos provenientes del capital, del valor de esos ingresos. La influencia de esta propuesta teórica en las formulaciones sobre la función de consumo ya se hace presentes en la hipótesis o modelo del “ciclo vital”, originalmente formulado por Modigliani y Brumberg en 1954 (Modigliani 2005), el cual planteaba que el consumo de los hogares se planifica y realiza tomando en cuenta los ingresos a lo largo del ciclo de vida de las personas, de modo que se les atribuía a estas la capacidad para poder anticipar las posibles oscilaciones -ascendentes o descendentes- que su ingreso pudiera experimentar a lo largo de su vida, lo cual se realizaría por medio de una operación de descuento a valor presente -en línea con la formulación de Fisher- de los ingresos futuros. La tesis de Friedman sobre el “ingreso permanente” no es muy distinta de la Modigliani, puesto que básicamente postula que el consumo de los hogares se ajusta a las anticipaciones de su ingreso en el largo plazo, lo cual implica que no es sensible, o, por lo menos, no lo es en grado apreciable a las variaciones del ingreso en períodos cortos. En general, estas hipótesis -y en particular la de Friedman- han sido controvertidas y no cuentan con satisfactoria sustentación empírica, cuando, tan pronto como el año 1963, Ando y Modigliani ya elaboraban un crítica interesante al planteamiento del “ingreso permanente” (Ando 1963).9
Como es usual en la metodología neoclásica, esa tesis de Friedman -como asimismo la de Modigliani y Brumberg- se basaba en supuestos de racionalidad muy exigentes, que imaginaban que el agente económico optimiza sus decisiones de consumo en una perspectiva de muy largo plazo, considerando, no solo su riqueza e ingreso actual, sino también su riqueza y el flujo de sus ingresos en plazos indefinidos. Aun cuando se admitían desviaciones transitorias, por causa de cambios u oscilaciones momentáneas y pasajeras, se construía imaginariamente un largo plazo en el que esas perturbaciones se corregían y el equilibrio se restablecía. Esto último, es decir, el postulado de un largo plazo -de siempre imprecisa duración- en el cual los equilibrios se restablecen, es un elemento habitual en la metodología y las teorizaciones neoclásicas. El planteamiento, así formulado, incurre en evidentes tautologías10, como asimismo tiene detalles realmente curiosos, puesto que, cuando se razona para el corto plazo, admitiendo que en este se presentaban desviaciones y desequilibrios momentáneos que, luego, a largo plazo, se corregirían, se pierde de vista el hecho -que debería ser obvio- de que ese corto plazo es solo el momento más reciente dentro de un largo plazo, el cual podemos prolongar hacia atrás en el tiempo, tanto como lo deseemos. Por lo tanto, y en rigor, no debería haber ningún motivo razonable para que hoy exista desequilibrio, puesto que el presente es solo el momento actual de un largo plazo que empezó mucho tiempo antes. Todavía más: en rigor nunca deberían observarse perturbación alguna que altere el equilibrio, puesto que todo corto plazo es solo el momento actual de un largo plazo y los mercados, como, en general, todas las variables económicas -eso afirma la teoría neoclásica- siempre encuentran su equilibrio en el largo plazo.
Por otra parte, y para entender mejor las motivaciones detrás de las hipótesis de Modigliani y Brumberg, y, en especial, la de Friedman, es importante retomar lo que anteriormente indiqué sobre el planteamiento original de Keynes. El postulado de que el consumo está en función de una anticipación optimizada y racional del flujo de la riqueza y los ingresos a largo plazo, le concede a la función consumo atributos de estabilidad en el corto plazo, que invalidarían la tesis keynesiana según la cual, al aumentar a corto plazo el nivel de ingreso, podría reducirse tendencialmente la parte destinada al consumo, lo que, a su vez, frenaría el efecto dinamizador que este ejercería sobre el conjunto de la economía. Desactivar esta última proposición es importante para tratar de prevenir que se apele al estímulo fiscal como mecanismo que permita sostener la recuperación del dinamismo de la economía. Asimismo, la tesis de Friedman (pero también la de Modigliani y Brumberg) son como al modo de una advertencia ante la tentación de políticas redistributivas: puesto que el consumo depende de anticipaciones racionales a largo plazo de la riqueza y del flujo de ingresos que esa riqueza provee, alterar esos parámetros mediante políticas redistributivas, posiblemente solo provocaría efectos que se compensan los unos a los otros: si en una parte de la sociedad, favorecida por la redistribución del ingreso, se registra un aumento del consumo, seguramente en la otra parte -la perjudicada por la redistribución- se dará el efecto contrario. El efecto neto es incierto, pero, además, riesgoso, puesto que altera los mecanismos de optimización que guían la actuación racional de los agentes económicos.
La emergencia del monetarismo y la reformulación de la “teoría cuantitativa del dinero”
Por su parte, la reformulación que Friedman (M. Friedman 1956) hace de la teoría cuantitativa del dinero, retoma una idea muy vieja, cuyas primeras formulaciones aparecen asociadas a la llamada Escuela de Salamanca, a mediados del siglo XVI, y, en particular, el nombre del sacerdote, teólogo y filósofo, además de economista, Martín de Azpilcueta Jauregizar (1492-1586). Es interesante señalar que, para la economía austríaca, el sacerdote Azpilcueta y, en general, la llamada Escuela de Salamanca, vienen siendo como al modo de sus tatarabuelos teóricos, o sea, los reivindican como los precursores tempranos de su teoría y de su posicionamiento epistémico y metodológico. La teoría, que vinculaba la cantidad de dinero con el nivel de los precios y, por lo tanto, con la inflación, ya se encontraba en David Ricardo (Ricardo 2014 (1817)), especialmente en el capítulo IX (“Impuestos sobre productos primos”), donde, además, aparece relacionada con el funcionamiento del patrón monetario basado en el oro (el llamado “patrón-oro”), y las formas de ajuste automático que este pone en movimiento para corregir los desbalances del comercio exterior de un país. En cuanto a la propuesta de Friedman, de nuevo debe reconocerse que, en este aspecto, como en algunos otros -la “tasa natural de desempleo” o las hipótesis sobre el consumo, por ejemplo- también se hace sentir la influencia de Irving Fisher, especialmente, su formulación de la “ecuación de cambio”, cuya forma canónica simple es: MV = PQ. Donde M es la cantidad de dinero en la economía, usualmente designada como “oferta monetaria”; V es la velocidad de circulación del dinero, o sea, el número de veces que una unidad monetaria es utilizada en el intercambio para que, durante un período dado, se compre la totalidad de los bienes y servicios adquiridos durante ese período; P designa el nivel general de los precios, usualmente medido mediante algún índice; Q es la cantidad total de la producción puesta en oferta durante el período de que se trate. En (Fisher 1911), página 11, aparece la formulación básica de esa ecuación, a la que luego, en capítulos sucesivos, Fisher le introduce algunos refinamientos, que básicamente tienen que ver con la definición de M. En cualquier caso, aquí el aspecto clave se relaciona con el supuesto de que V es estable, una tesis que luego es retomada, y elaborada adicionalmente por Friedman.
La célebre reformulación planteada por Friedman (M. Friedman 1956), quiso darle un carácter más amplio para plantearla como una teoría de la demanda de dinero, más que como una teoría sobre la inflación, si bien, y pasados los años, la influencia que conserva -sin duda, muy significativa- aparece asociada principalmente al problema de la inflación, como bien lo ratifica su famosa frase, repetida incontables veces por quienes adhieren a las tesis monetaristas: “la inflación es siempre y en todas partes un fenómeno monetario”11. Usualmente se le llama monetarismo o teoría monetarista. También tuvo influencia, pero transitoria, su propuesta encaminada a establecer una política monetaria regida por reglas, de forma que los bancos centrales, determinasen una tasa de crecimiento de la oferta monetaria, o sea, de la cantidad de dinero que circulase en la economía, la cual quedaría definida de acuerdo con el crecimiento de la producción real. Se suponía que, al ajustarse la evolución en la cantidad de dinero a la evolución de la producción, con ello se garantizaría estabilidad de precios.12 La idea no tuvo mucha fortuna, puesto que rápidamente quedó en evidencia que era impracticable e inútil. En parte porque no existe una definición precisa y confiable de lo que deba entenderse por oferta monetaria (un problema al que Friedman prefirió pasarle de lado) y, en parte, y principalmente, porque, en los sistemas financieros contemporáneos, basados en una moneda fiduciaria, los bancos centrales en realidad no controlan -o lo hacen solo muy parcialmente- el proceso de creación de dinero, el cual, en lo fundamental, depende de los bancos comerciales mediante la concesión de crédito, configurando así, como lo ha planteado la teoría poskeynesiana, un proceso “endógeno” de creación de dinero, que es endógeno precisamente porque responde a una demanda que, a su vez, se origina en la propia dinámica de la economía.
Como ya adelanté, la parte sustantiva de la reformulación de la teoría cuantitativa del dinero que Friedman desarrolló, tenía que ver con su replanteamiento como una teoría sobre la demanda de dinero. En esto subyace, nuevamente, otro elemento de debate con las elaboraciones de Keynes, que, asimismo, tiene consecuencias relevantes, no solo teóricas, sino asimismo políticas. La cuestión, sobre todo, gira alrededor de la mayor o menor estabilidad de la “velocidad de circulación del dinero”, o sea, la mayor o menor celeridad con que, en promedio, cada unidad monetaria es utilizada y “cambia de manos” a lo largo de un determinado período. En Keynes, esa velocidad es relativamente inestable, y, en especial, y como parte de su noción de incertidumbre, puede haber momentos, en medio de una crisis, cuando la velocidad se desploma y la gente opta por atesorar. Ese es, con seguridad, un aspecto clave dentro del planteamiento keynesiano, que advierte acerca de las fuerzas, inherentes al propio capitalismo, que provocan inestabilidad y ciclicidad, las cuales eventualmente podrían conducir a una depresión, en circunstancias cuando se impone un ambiente sombrío y de radical incertidumbre, que conduce al atesoramiento y hace que cualquier baja en la tasa de interés se vuelva inútil, de modo que solo mediante el estímulo fiscal podría lograrse la recuperación de la economía. En términos metafóricos, podríamos decir que la reformulación de la teoría cuantitativa por parte de Friedman trata de “conjurar” esos peligros, es decir, trata de invalidar el escepticismo de Keynes respecto del funcionamiento de los mercados y las consecuencias políticas que eso tiene, para lo cual se hace necesario demostrar que la velocidad de circulación del dinero es estable. Con ese fin, Friedman conceptualiza el dinero como una más, dentro de las diversas formas como se expresa la riqueza de los agentes económicos, junto a la capacidad productiva de las personas, el capital de las empresas, el acervo de acciones o bonos de deuda pública, etc. De tal modo, el dinero es parte de procesos de optimización racional por parte de los agentes, que, con el fin de maximizar su utilidad, deciden cómo distribuyen su riqueza entre esas diversas opciones. Esto hace que la demanda por dinero, o sea, la cantidad de dinero o de saldos monetarios que las personas deseen tener, sea bastante estable; y, por ello mismo, incrementar la oferta monetaria -es decir, incrementar la cantidad de dinero en la economía- conduce a más inflación, porque los agentes económicos, simplemente querrán deshacerse de los saldos en dinero que exceden de la cuantía que, racionalmente, optimiza sus “decisiones de cartera”, o sea, el balance deseado entre las distintas formas de riqueza. Todo esto tiene importantes consecuencias políticas: la inestabilidad en la velocidad de circulación del dinero (la V), que Keynes identifica, asociada al atesoramiento de dinero y, como consecuencia de este, a la crisis, convoca necesariamente a la intervención pública por medio de políticas fiscales activas.13 El planteamiento de Friedman, que intenta demostrar la estabilidad de la velocidad de circulación, y, por lo tanto, la estabilidad de la demanda de dinero, no solo busca prevenir la intervención pública, aduciendo que, de natural, el sistema es estable, sino que, asimismo, procura dejar sentado que la fuente de inestabilidad provendría de la propia acción pública, la cual, al propiciar la creación de dinero, con ello tan solo logrará que se genere inflación. Si recordamos las tesis de la tasa natural de desempleo (de Friedman y Phelps) y la de la tasa de interés natural (de Fisher) podrá comprenderse que, en el fondo, hablamos de distintas piezas de un mismo rompecabezas, las cuales se refuerzan y complementan entre sí para sustentar dos ideas básicas: que el sistema posee virtudes de autorregulación que lo estabilizan y que la intervención de las políticas públicas -en especial las políticas fiscales- es inútil, en el mejor de los casos, pero perjudicial como regla general. Todo lo cual en el fondo articula un debate teórico con Keynes teñido inevitablemente de ideología y cuyas consecuencias políticas son muy significativas.
En todo caso, la crisis de estanflación del decenio de 1970 proporcionó un terreno propicio en el cual el monetarismo de Friedman pudo florecer, aportando de paso elementos importantes para alimentar la contraofensiva que buscaba desbancar al keynesianismo de la síntesis neoclásica y más en general desacreditar el legado de Keynes. Todavía más puesto que la mencionada “síntesis” no lograba explicar aquel fenómeno, ya que, en su formulación canónica -la del modelo IS/LM y la Curva de Phillips14- la concurrencia simultánea de recesión o estancamiento y desempleo con inflación era considerada imposible. Puesto que el modelo teórico de la síntesis neoclásica los postulaba como fenómenos excluyentes, aquello era, inevitablemente, motivo de perplejidad. El planteamiento monetario de Friedman pretendía ofrecer una respuesta satisfactoria, pero, además, tenía una importante implicación política e ideológica: contribuía a dirigir las miradas hacia el peso creciente del Estado en la economía, lo que, a su vez, se manifestaba en el surgimiento de situaciones de déficit fiscal y creciente deuda pública.
El retorno a la economía prekeynesiana
De tal modo, las tesis de las expectativas adaptativas y la de la tasa de desempleo natural, complementadas y reforzadas por las tesis monetaristas, aportaban la base para configurar un entramado teórico cuyo objetivo sería destronar la ortodoxia keynesiana de la síntesis neoclásica y desacreditar las políticas intervencionistas, principalmente, de tipo fiscal, que derivaban de esa ortodoxia. A la vez, y posiblemente era esto lo más importante, se quería reinstaurar los principios que animaron las corrientes promercado de la teorización económica, lo que, en lo fundamental, implicaba reinstalar la ortodoxia prekeynesiana. Se trata de un enfoque epistémico y metodológico, que, muy posiblemente, ya estuvo presente en la Escuela Fisiócrata francesa a mediados del siglo XVIII, pero, con mayor claridad y contando con una formulación teórica bastante precisa, a partir Jean-Baptiste Say a inicios del siglo XIX (Say 1855 (1803)). Aunque, desde luego, alguien podría cuestionar si no debí mencionar a Adam Smith antes que a Say. Creo que no, ya que, en realidad, los planteamientos de Smith sobre el libre mercado eran más escépticos de lo que usualmente se cree. Véase, por ejemplo: (Marshall 2023). En cambio, es claro que esa idea, entusiastamente favorable a los automatismos del libre mercado, sí estuvo presente en David Ricardo, lo cual quedó expresado, con especial claridad, en su correspondencia con Thomas Malthus y en el debate epistolar que tuvo lugar entre ambos amigos y economistas, cuando Malthus, distinto a Ricardo, optaba por un planteamiento más escéptico y crítico. Y al decir lo anterior, no me refiero a la desacreditada teoría malthusiana de la población, sino, fundamentalmente, al hecho de que Malthus intuyó, de forma pionera y anticipatoria, la posibilidad de que surgieran fenómenos de sobreproducción que dieran lugar a situaciones de crisis, cosa que Ricardo descartada. Y si bien la historia de vida y las posiciones ideológicas de Malthus lo hicieron aborrecible a Marx y, a través de este, a toda la tradición marxista, Keynes, por su parte, sí quiso recuperar sus aportes, originales y, sin duda certeros, en relación con el problema de la demanda efectiva. Al respecto, sugiero ver: (Puyana Ferreira 1997) y (Williams 2021). Además, y en lo que atañe a la evolución de la teoría del valor, ya en Mill (Mill 1943 (1848)) es posible encontrar una formulación ecléctica, que asigna un papel importante a la demanda, lo que anticipa la centralidad que esta adquirirá en las formulaciones ofrecidas por la Revolución Marginalista, surgida en el decenio de 1870, cuya influencia preeminente logró sostenerse hasta el decenio de 1930. La tesis medular de esta última giraba alrededor de la noción de “valor subjetivo”, o sea, ubicaba el origen del valor en la apreciación personal y la utilidad subjetiva que las mercancías pudieran proporcionar a las personas consumidoras. Por su parte, el método marginalista, parte medular dentro de las innovaciones teóricas de los años setenta del siglo XIX, tiene diversos antecedentes. Según (Trincado Aznar 2005), los orígenes del marginalismo se remontan a los aportes de Jeremy Bentham hacia finales del siglo XVIII. Más habitualmente, se menciona al economista alemán Hermann Heinrich Gossen, quien, en el decenio de 1850, ya logró una formulación, relativamente acabada, del método marginalista. Al respecto, véase (Roll 1984), quien, sin embargo, matiza el aporte de Gossen al indicar que este fue “m…un anticipador más bien que un precursor. No ejerció influencia ninguna durante su vida” (368).
Súmense a la teoría del valor subjetivo y al marginalismo, los principios propios del individualismo metodológico, y, concomitantemente, las premisas según las cuales el comportamiento de los agentes económicos está guiado por criterios de racionalidad optimizadora. Sobre esa base se elabora una sofisticada construcción teórica, seguramente inspirada en los principios de la física newtoniana, para lo cual se recurre al lenguaje matemático, característico de esta última, sino que, asimismo, busca construir una imagen de los mercados capitalistas que imite el universo newtoniano de armonías perpetuas y equilibrios estables. Con toda certeza, el aporte principal, dentro de esa línea de teorización, vino de León Walras, por medio de su teoría o modelo del Equilibrio General (Walras 1987 (1874)), el cual pretendía contestar la pregunta acerca de cómo lograba coordinarse una economía descentralizaba en la cual concurrían una multitud de agentes individuales, cada uno tomando decisiones de forma autónoma. El Equilibrio General de Walras, aún sin ser un modelo de tipo macroeconómico (la macroeconomía recién surgiría con Keynes), aporta la construcción teórica más sofisticada, sobre las cuales sostener esas presunciones optimistas respecto del funcionamiento de los mercados capitalistas.
La hipótesis de las expectativas racionales
Sobre esas bases se desarrolla la Hipótesis de las Expectativas Racionales, que, en muchos sentidos, merece ser considerada el punto culminante en este proceso de refundación del planteamiento teórico neoclásico. Trabajos seminales clave para la formulación y asentamiento de esta tesis teórica son los siguientes: (Muth 1961), (T. J. Sargent 1971), (Lucas 1972), (T. J. Sargent 1972), (T. J. Sargent 1975).
Esta hipótesis postula que los agentes económicos son racionales y que poseen la información suficiente y la capacidad necesarias para anticipar el futuro, lo cual quita eficacia a las acciones discrecionales de las autoridades económicas. Los agentes sabrán reconocer que esas políticas provocarán inflación, eventualmente déficit fiscal, incremento de la deuda pública y aumento de los impuestos. Dada esta eficaz y poderosa capacidad de anticipación, ninguna acción de política económica que intente estimular la economía -particularmente si es una política de estímulo fiscal- dará resultados, puesto que los agentes económicos racionales no se dejarán “engañar” y, entonces, se abstendrán de modificar su comportamiento: ni se incrementará el consumo por parte de los consumidores ni tampoco las empresas querrán invertir, expandir su producción ni contratar más gente. Eso es así, en el tanto sus expectativas no adolecen de ningún sesgo sistemático. Si bien, a nivel individual, podría haber errores en las previsiones, no los habría en promedio. Es decir, en su conjunto, y como tendencia dominante, las expectativas racionales de los agentes serían correctas, y eficazmente previsoras. Esto nos lleva de vuelta a la noción neoclásica de equilibrio en el largo plazo presente en conceptos teóricos clave como los de “tasa de interés natural” de Fisher, en las hipótesis sobre el consumo de Modigliani y Brumberg y la de Friedman, y, por supuesto, también en la tesis de “tasa natural de desempleo” de Friedman y Phelps. Podría decirse que estas diversas tesis quedan englobadas, y, por lo tanto, reforzadas dentro de la tesis de las expectativas racionales.
La Hipótesis de las Expectativas Racionales tienen innegable similitud con la célebre “equivalencia ricardiana”, que David Ricardo dejó insinuada, más que explícitamente formulada, en (Ricardo 2014 (1817)). Aquí, como en tantos otros elementos, vemos retornar viejas categorías económicas, solo que, ahora, estas aparecen formuladas de forma más elegante y con considerable sofisticación matemática.
El razonamiento que esta hipótesis propone, se basa en la suposición de que la economía es un sistema ergódico, de forma que los acontecimientos económicos pueden ser previstos con arreglo a una determinada distribución de probabilidades, que opera a lo largo del tiempo. Así, el futuro puede ser anticipado, tal y como si fuera una proyección del pasado, de modo que lo que interesa es disponer de información suficiente y relevante sobre lo acaecido previamente y respecto de lo que ocurre en el momento presente. Además, en su formulación más abstracta, la teoría razona a partir de la ficción del “agente representativo”, una especie de “caso ideal” que intenta sintetizar, en una sola categoría, a toda la variedad de agentes económicos que existen en la realidad. Al proceder de esa forma, en la práctica, se están anulando todas las diferencias empíricas entre quienes participan en los mercados para postular que todos los agentes son idénticos, lo que conduce a que actúen y deciden como tales, o sea, como si efectivamente fueran idénticos. En rigor, y para todo efecto relevante, esto implica razonar como si hubiera un único agente económico, y no una multitud de agentes. Se suprimen, así, no solo las influencias y determinaciones resultantes de los diversos contextos culturales e históricos, sino, también, las trayectorias de vida de cada quien, y, en último término, se suprime la influencia derivada de las interacciones sociales, de forma que, al cabo, la macroeconomía se transfigura en microeconomía: puesto que un solo agente es todos los agentes, la macro, igual que la micro, se reduce a las decisiones racionales, eficazmente previsoras, de ese único agente.
Una variante de este planteamiento, sumamente ilustrativa por sus conclusiones, y que comporta supuestos de alcances igualmente épicos, se formula en (Barro 1974), el cual, siguiendo el trazado teórico que habían anticipado Fisher, Friedman o Modigliani, imagina una sucesión indefinida de generaciones, cuya riqueza, y, por lo tanto, cuyos flujos de ingreso, están interconectados a lo largo del tiempo. De tal modo, las muy racionales generaciones actuales no considerarán que poseer bonos de deuda pública sea una forma de riqueza, puesto que descontarán el flujo, a lo largo del tiempo, de los ingresos de las sucesivas generaciones de su familia hasta un futuro que se extiende tanto como arbitrariamente se desee, de modo que tendrán en cuenta los impuestos que esas generaciones no nacidas deberán pagar a causa de la deuda pública que hoy es emitida. Presuntamente, eso desactivaría todo posible efecto de dinamización de la economía y el empleo derivado de alguna de alguna política fiscal expansiva que el gobierno pudiera decidir aplicar.
Estamos, evidentemente, frente a un planteamiento teórico que tiene validez dentro de sus propios términos, es decir, con arreglo a las premisas o supuestos en las que se basa. Esos supuestos son manifiestamente irreales, más bien heroicos. Supone un ser humano dotado de excepcionales capacidades para el manejo y procesamiento de información y con un sentido de la optimalidad a la hora de tomar sus decisiones, que evidentemente desafía las limitadas realidad de la condición humana. En ningún lugar del planeta, ni en ningún momento de la historia de la especie humana ha existido algo así. Entonces, queda entonces la posibilidad de apelar a la propuesta metodológica de Friedman, sintetizada en su famosa máxima, según la cual no interesa el realismo de los supuestos, sino la capacidad predictiva de la teoría (M. Friedman 1953). De ser ese el caso, las tesis de la así llamada “austeridad expansiva” se confirmarían como valederas en la práctica. Es decir, se podría constatar que, al recortarse el gasto público, la economía se expande, la inversión empresarial se dinamiza y el empleo mejora. Retornando al mencionado planteamiento de Barro, los agentes económicos estarían anticipando una reducción de impuestos a lo largo de muchas generaciones futuras, gracias al menor gasto público y la menor deuda pública actuales, lo cual provocarían un efecto positivo sobre la economía. Y, sin embargo, y dentro de la tesis de Friedman, no importaría tanto si esos agentes económicos no son tan racionales y certeros en sus decisiones como supone la hipótesis de las expectativas nacionales. Bastaría con la percepción, aun si esta fuese difusa e imprecisa, de que, al aplicarse hoy políticas austeritarias y recortarse el gasto público, en el futuro habría menos inflación e impuestos más bajos. Trabajos pioneros en relación con la tesis de la austeridad expansiva son los siguientes: (Giavazzi 1990) y (Alesina 1990), (A. S. Alesina 1998). Escritos posteriores, que pusieron a circular estas ideas en el siglo actual y particularmente en el contexto de la crisis europea de la deuda, son (A. S. Alesina 2009), (Broadbent 2010). Cuando, por otra parte, hay sólida evidencia que demuestra que las hipótesis de la “austeridad expansiva” es errónea y que el recorte del gasto público tiene, por lo general, efectos recesivos: provoca contracción económica -o estancamiento en el mejor de los casos- y desempleo, siendo que, cuando al recorte fiscal ha seguido un movimiento de recuperación de la economía, este es debido a otros factores, generalmente asociados al mercado externo y, por lo tanto, al crecimiento de las exportaciones. Véanse al respecto: (Stuckler 2013), (Blyth 2014) (Varoufakis 2016), (Skidelsky 2017).
Por su parte, y para ampliar la crítica teórica en relación con la hipótesis de la expectativas racionales, véase (Davidson 1982), (Davidson 1991), (Bermúdez 2014). La crítica de Davidson, una de las más representativas, fundamentalmente se alimenta de la noción de incertidumbre que Keynes y Frank Knight habían formulado. Esta tesis sostiene que, en la economía realmente existente, los agentes económicos están irremediablemente limitados a la hora de anticipar los hechos futuros que son relevantes para su proceso de toma de decisiones, puesto que esos hechos no son susceptibles de un cálculo de probabilidades y entran, más bien, en el territorio propio de la incertidumbre radical, donde ese cálculo no es posible. Como bien indica (Astarita 2011), no es una incertidumbre como la que está asociada a los pronósticos climáticos, cuya precisión puede mejorarse conforme se cuenta con más datos. En economía, o, en general, en todo lo atinente a las sociedades humanas, eso no es posible, por mucho que se acopie información sobre hechos del pasado y el presente, a partir de los cuales se intentaría formular una anticipación de lo que vendrá. Y eso es así, precisamente porque el ser humano es creativo en sus reacciones, al punto que al darse a conocer una predicción esta puede bastar para generar respuestas que alteren completamente el curso de los acontecimientos futuros.
Si bien la crítica de Davidson apunta a un aspecto importante, el cual tiene implicaciones tanto teóricas como epistémicas, podría, inadvertidamente, estar incurriendo en el error de validar los supuestos de racionalidad neoclásicos, en el tanto postula que el problema reside, no en la ausencia de tal racionalidad, sino en el obstáculo que impone la incertidumbre, la cual dificulta o impide que aquella racionalidad sea eficazmente aplicada. En otras palabras: la gente -los “agentes económicos”- querrían elaborar un cálculo de probabilidades sobre lo que traerá el futuro, incluso un futuro prolongado en un largo plazo, pero este simplemente no es posible. En realidad, es más plausible que el común de las personas en ningún momento pretenda realizar tales cálculos de riesgos probabilísticos, cuando ni siquiera tiene idea de cómo hacerlo, ni menos aún la información necesaria para intentarlo y, cuando, además, el umbral temporal dentro del cual las personas corrientes toman sus decisiones es seguramente más acotado y seguramente mezcla elementos racionales con elementos derivados de la influencia de su entorno e, incluso, cuestiones más intuitivas o, incluso, instintivas. Precisamente, eso da sentido al estímulo fiscal keynesiano en el contexto de una economía deprimida, porque ese estímulo introduce modificaciones objetivas en el ambiente económico -crea empleos en forma directa o introduce flujos de demanda previamente inexistentes- que, dentro del limitado umbral de decisión de los agentes económicos les induce a comportamientos que posibilitan que la economía recupere dinamismo.
Más allá de las expectativas racionales: las hipótesis de los “mercados eficientes” y de los “ciclos reales”
Todo este amplio y sofisticado aparato teórico, cuyo punto culminante es esta hipótesis de las expectativas racionales, da lugar a lo que se ha dado en llamar, de forma más bien pomposa y desmesurada, la “nueva macroeconomía clásica”, la cual se supondría haber “derrocado” a Keynes, aunque, en rigor, y desde el punto de vista político e ideológico, además de teórico, vino a desplazar la síntesis neoclásica de Keynes. Ese “derrocamiento”, como anteriormente indiqué, se vio evidentemente facilitado por la crisis de estanflación del decenio de 1970. Súmense los aportes políticos, filosóficos e ideológicos de diversos autores -en especial los de Friedman y Hayek- y tendremos entonces el cuadro sólidamente conformado: la plataforma para el asentamiento hegemónico del neoliberalismo quedó debidamente instalada.
Sin embargo, es necesario mencionar dos derivaciones teóricas particulares, como al modo de ramas que crecieron desde el núcleo principal de la “nueva macroeconomía clásica” y que también han jugado un papel importante en el proceso de asentamiento de esta nueva ortodoxia y, por lo tanto, en el proceso de ascenso del neoliberalismo. Hablamos de la Hipótesis de los Mercados Eficiente (Fama 1965) (Fama 1970) (Scholes 1973)15 y la Teoría de los Ciclos Reales.
La Hipótesis de los Mercados Eficientes propone que los precios de los valores en los mercados bursátiles contienen toda la información pública relevante en un momento dado, lo que hace imposible que nadie los manipule ni que nadie se enriquezca de forma deliberada. En su formulación inicial por parte de Fama, nació bajo el influjo de las tesis del físico, polaco de nacimiento, Benoit Mandelbrot. Se postula, entonces, que esos precios se mueven describiendo un “paseo aleatorio” o “caminata aleatoria”, es decir, son imprevisibles y, cuando cambian, es únicamente en respuesta a la información nueva que, con el transcurrir del tiempo, vaya surgiendo en el mercado. Esa información, al ser nueva, tampoco puede ser prevista por nadie. Cuando aparece y circula, el mercado ajusta los precios en concordancia, sin que ningún agente individual pueda influir o alterar el curso de los acontecimientos. Esto tiene una implicación importante: descarta la posibilidad de burbujas, auges especulativos o, como dijera Robert Shiller, situaciones de “exuberancia irracional”. La hipótesis admite, al menos, tres variantes correspondientes a distintos niveles de “eficiencia” (Ruiz Dávila 2020): débil, semifuerte y fuerte, según que incluya solo información histórica del precio de los activos, o bien, y aparte de esta, otra información conocida por todos los participantes en el mercado o, finalmente, y aparte las anteriores, información privada del tipo “privilegiado” (p. 72). La idea así planteada recupera la noción hayekiana que representa el mercado como un gran sistema cibernético que recopila y transmite, en forma prístina, flexible y muy eficaz, toda la información necesaria para hacer que el propio mercado se equilibre de forma virtuosa, al propiciar, a su vez, que los agentes individuales, al actuar racionalmente, tomen decisiones óptimas. A su vez, es una idea coherente con la que plantea la Hipótesis de las Expectativas Racionales, precisamente porque lleva implícita una noción de racionalidad individual que se proyecta al mercado en su conjunto, solo que, en este caso, la hipótesis parece descansar en una noción con ciertos aires metafísicos y esotéricos, que atribuye al mercado una suerte de inteligencia superior impersonal, la cual equilibra los precios de los valores de forma por completo ajena a la influencia particular de ninguno de los agentes participantes.
Una crítica, muy amplia y contundente, que aborda las debilidades teóricas de la Hipótesis de los Mercados Eficientes, como, asimismo, su irrelevancia frente a la evidencia empírica, es la que ofrece Robert Shiller en (Shiller 2015), particularmente los capítulos 11 (“Mercados eficientes, paseos aleatorios y burbujas”) y 12 (“Aprendizajes y «desaprendizaje» de los inversores”). La discusión, que desarrolla este mismo autor en (Shiller 2021), ilustra con, gran claridad y abundantes referencias históricas, la complejidad de los procesos de decisión y el comportamiento humano.
Por su parte, la Teoría de los Ciclos Reales empieza a tomar forma a partir del trabajo seminal de Kydland y Prescott publicado en 1982 (Kydland 1982), si bien el concepto de “Ciclos Reales de Negocios” fue introducido por (Long 1983). Otro aporte importante, en términos de la sistematización teórica que ofrece, es el de (Barro 1989). El mencionado trabajo de Kydland y Prescott desarrolla un modelo de crecimiento construido según la metodología usual en la teorización neoclásica, o sea, con base en supuestos de racionalidad, optimización intertemporal y el postulado de un “agente representativo”, que estandariza en un solo sujeto todas las variantes y heterogeneidades que caracterizan a los seres humanos del mundo real. Las conclusiones que formula subrayan la correlación entre las fluctuaciones en la economía estadounidense y presuntos “shocks tecnológicos”. Desde luego, es una tarea, por lo menos ardua, la de poder, no solo definir apropiadamente qué deba entenderse por un “shock tecnológico”, sino, más aún, lograr reconocer correctamente cuándo se dan, qué tan significativos son y, en especial, en qué momento hacen sentir sus efectos. Si no eso no resuelve satisfactoriamente -y difícilmente se ha logrado hacerlo de forma persuasiva- la teoría queda subvertida desde sus bases.
Desde otro punto de vista, y por la centralidad que se le concede al cambio tecnológico, este planteamiento tiene algo en común con Schumpeter (Schumpeter 1978 (1911)) (Schumpeter 2015 (1942)) cuya teoría sobre el desenvolvimiento económico, sin embargo, incorporaba (distinto a la visión neoclásica convencional) factores de tipo sociocultural, pero, sobre todo, asociaba los ciclos económicos a procesos de innovación tecnológica y “destrucción creativa”, los cuales eran inherentes al capitalismo, o sea, estaban incorporados a su dinámica intrínseca y eran empujados por el “empresario”, figura alrededor de la cual Schumpeter elabora un tipo sociológico al que le asigna un papel clave. De ahí que, cuando Schumpeter observó que el capitalismo evolucionaba hacia formas organizativas de tipo corporativo, lo que implicaba la desaparición del “empresario innovador”, creyó ver que eso debilitaría esa dinámica innovadora. Era, según temía Schumpeter, sustituir la inventiva y creatividad del primero por ramificadas y complejas estructuras burocráticas (Schumpeter 2010 (1942)).16 De eso extrajo conclusiones pesimistas sobre el futuro del capitalismo, no muy distinta a las de Marx, aunque asentadas en otro tipo de consideraciones teóricas. En contraste con lo anterior, la Teoría de los Ciclos Reales supone que los ciclos tienen un origen exógeno, o sea, externo a la dinámica intrínseca del capitalismo. Entonces, los ciclos serían, principalmente, la consecuencia derivada de innovaciones tecnológicas de significativo alcance. Pero, al establecer ese postulado, la propia innovación tecnológica se hace exógena al capitalismo, lo cual tiene una implicación paradójica: el capitalismo no es -como suponían Schumpeter, pero también Marx- un sistema intrínsecamente dinámico e innovador, y pasa a ser, en cambio, un sistema que reacciona a innovaciones que tiene lugar fuera del sistema mismo. Así, el ciclo resulta ser la respuesta racional de los agentes económicos, los cuales, al responder y ajustarse a las nuevas condiciones tecnológicas, reestablecen un nuevo equilibrio que, desde luego, cumple con las condiciones de optimalidad de Pareto. Esto va en la línea de lo planteado por la Hipótesis de las Expectativas Racionales, y procura reforzar la representación de los mercados capitalistas como mecanismos armoniosos y autorregulados. Por su parte, (Plosser 1989) ofrece una síntesis en la que, sin desistir del núcleo central de la teoría, la cual hace exógena los disturbios que provocan que los ciclos ocurran, se admite, sin embargo, que, centrarse solamente en los “shocks tecnológicos”, podrían resultar excesivamente simplificador, por lo que sugiere considerar otras factores que podrían incidir en la ciclicidad del capitalismo.
Neokeynesianismo y nueva macroeconomía clásica: hacia un “nuevo consenso macroeconómico”
Con el paso de los años, se ha dado lugar a un nuevo “consenso”, con pretensiones de ser una nueva síntesis, en virtud de la confluencia entre la “nueva macroeconomía clásica” y el “nuevo keynesianismo” o “neokeynesianismo”. Este “nuevo consenso” surge a partir de un movimiento de convergencia entre las dos mencionadas propuestas teóricas, de forma que el neokeynesianismo asumió algunas de las tesis centrales de la nueva macroeconomía clásica, pero incorpora modificaciones a los supuestos de la teoría a fin de considerar diversas rigideces e imperfecciones en los mercados, que, se supone, serían la herencia sobreviviente (muy disminuida, sin duda) de los planteamientos originales de Keynes. El libro “Lectures on macroeconomics” de Olivier Jean Blanchard y Stanley Fischer (Blanchard 1989), publicado originalmente en 1989, es un esfuerzo pionero por lograr esa “síntesis”, aunque, en rigor, menos que una síntesis, posiblemente sea, más bien, un planteamiento ecléctico.
En rigor el neokeynesianismo surgió a partir de un esfuerzo de “puesta al día”, revisión y corrección de la vieja síntesis neoclásica. El trabajo de David Romer (Romer 2000), concretiza con toda claridad ese propósito, cuando indica:
I therefore make the case against IS-LM mainly by presenting a concrete alternative. The alternative replaces the LM curve, along with its assumption that the central bank targets the money supply, with an assumption that the central bank follows a real interest rate rule. The new approach turns out to have many advantages beyond the obvious one of addressing the problem that the IS-LM model assumes money targeting…it simplifies the analysis by making the treatment of monetary policy easier, by reducing the amount of simultaneity, and by giving rise to dynamics that are simple and reasonable; and it provides straightforward and realistic ways of modeling both floating and fixed exchange rates (150).
El modelo IS-LM17 se origina en la reformulación de Keynes desarrollada por John Hicks (Hicks 1937), publicada apenas al año siguiente de la aparición de la Teoría General. Esa reformulación, tal cual explícitamente lo reconocía el propio Hicks, tenía como propósito reinsertar a Keynes en la tradición neoclásica (que Keynes, de forma más bien equívoca, designó como “clásica”), convirtiéndolo, de hecho, en un “caso especial” dentro de ese paradigma teórico, con lo cual el planteamiento keynesiano quedaba despojado de cualquier novedad relevante y de cualquier arista crítica significativa. Cuando, por otra parte, lo que, presuntamente, hacía de la teoría de Keynes un “caso especial” era, principalmente, el supuesto de rigidez a la baja de los salarios, lo que imposibilitaba el equilibrio del mercado de trabajo y el restablecimiento del pleno empleo. Y, sin embargo, reducir a Keynes a ese elemento equivale a reducir a Adam Smith a la metáfora de la “mano invisible”. Lo cierto es que ambos autores aportaron muchísimo más de lo que esa caricatura sugiere.
Por su parte, Romer se proponía avanzar hacia un modelo que supere el modelo IS-LM, con el propósito de formalizar teóricamente lo que, ya desde el decenio de los noventa, se avizoraba como una nueva fórmula canónica: el abandono de las propuestas monetaristas de Friedman orientadas al establecimiento de reglas que regularan el crecimiento de la cantidad de dinero (oferta monetaria) en la economía y su sustitución por una política monetaria centrada en el manejo de la tasa de interés, que vendría a ser, entonces, el mecanismo regulador por excelencia. Pero ya esto, asimismo, conllevaba un viraje que diferenciaba el “nuevo keynesianismo” del viejo keynesianismo de la síntesis neoclásica, puesto que comportaba un énfasis en la política monetaria (básicamente centrada en el manejo de las tasas de interés) y el abandono o, por lo menos, la posposición, de la política fiscal como mecanismo regulador del ciclo económico y orientada hacia el logro del pleno empleo. Pero esa centralidad que adquiere la tasa de interés, va de conjunto con la emergencia de un énfasis paralelo: el control de la inflación. He ahí otra diferencia respecto del viejo keynesianismo de la síntesis, cuyo objetivo principal era el empleo, no la inflación. Así, toma forma y se asienta la así llamada “política de metas de inflación”, hoy sólidamente establecida como una nueva ortodoxia, guiada, a su vez, por la ya célebre “Regla de Taylor” (Taylor 1993). Este autor proponía avanzar hacia lo que él llamaba “reglas de política”, estables y conocidas, no rígidas y mecánicas, con lo cual se distanciaba de las propuestas originales de Friedman, cuando, asimismo, apelaba a una fórmula ecléctica, que permitía descartar la discrecionalidad -de inspiración keynesiana- en el ejercicio de las políticas económicas al conservar cierta limitada flexibilidad, lo cual queda claro cuando este autor nos dice: “the term «policy rule» need not necessarily mean either a fixed setting for policy instruments or a mechanical formula” (p. 198) para luego aclarar: “Technically speaking, a policy rule is a contingency plan that lasts forever unless there is an explicit cancellation” (199).
La “regla de Taylor” combina diversas variables: la tasa de inflación real y la tasa de inflación deseada (o sea: la que se establece como meta), y, a la par, la diferencia entre el nivel efectivo del ingreso o producción de la economía (generalmente medido mediante el Producto Interno Bruto, PIB) y el nivel potencial a “largo plazo”, o sea, aquel correspondiente el “pleno empleo” o, para ser más preciso, aquel que se ajusta a la “tasa natural de desempleo”, según la formulación propuesta originalmente por Friedman y Phelps, o su equivalente: la NAIRU (tasa de desempleo no aceleradora de la inflación). La tasa de interés es, entonces, el instrumento de política que actúa como válvula reguladora: según que la tasa de inflación exceda o se ubique por debajo de la meta, o según que el producto efectivo esté por encima o sea inferior a su nivel potencial, la tasa de interés se ajustará hacia arriba o abajo, para hacer que la inflación retorne a sus niveles deseados y que la producción se ubique dentro de los márgenes aceptables respecto de su nivel potencial. La presunción usual gira alrededor de la idea de que basta con que el nivel de producción se aproxime a su potencial, para que, entonces, se generen presiones inflacionarias. Con más razón sucederá tal cosa, cuando ese nivel es excedido. En tales casos, la tasa de interés se ajustará al alza, lo que lleva implícita la idea de que eso frenará la economía y apaciguará las tendencias inflacionarias. Pero, entonces, lo que en realidad se propone es una suerte de intercambio (o “tradeoff” según el conocido término en inglés) entre empleo e inflación: el primero se sacrifica en función de la segunda. Lo cual, como ya lo mencioné en un apartado anterior, reafirma el viraje del neokeynesianismo respecto del viejo keynesianismo de la síntesis neoclásica, puesto que el principal objetivo de política económica pasa a ser el control de la inflación en sustitución del pleno empleo (o, al menos, el cuasipleno empleo).
En todo caso, está política monetaria, enfocada en el control de la inflación, incorpora elementos asociados a las “expectativas inflacionarias”, algo que vagamente remite a la hipótesis de las expectativas racionales y cuya formulación, en el ejercicio práctico de las políticas, tiende a ser bastante imprecisa. El caso de Costa Rica permite ilustrar ese problema, puesto que tales “expectativas inflacionarias” se evalúan a partir de una encuesta aplicada a personas representantes de diversos sectores, en general, gente que, por su posición laboral, económica y social, tiene un nivel educativo y maneja un volumen de información muy superior al del ciudadano o ciudadana promedio. Es una forma muy extraña de medir algo que, se supone, debería ser una percepción extendida al nivel de la sociedad en general y no tan solo la opinión calificada de una élite muy restringida
Entre los elementos presentes en el keynesianismo de la síntesis, que el neokeynesianismo conserva, posiblemente el más importante sea el atinente a la existencia de rigideces en los mercados, destacadamente rigideces a la baja de los salarios. Eso dio inspiración a la idea, que Hicks dejó sentada, según la cual el Keynes de la Teoría General tan solo era un “caso especial” de la teoría neoclásica, construido a partir de la modificación del supuesto de plena flexibilidad de precios, lo cual, como ya he indicado, convertía el planteamiento keynesiano en algo bastante anodino. Además, una de las principales novedades que diferencia el “neokeynesianismo” respecto de la vieja síntesis neoclásica, tiene que ver con la noción de “asimetrías de información”, lo que rompe con el supuesto neoclásico de perfecta información. Esto proporciona las bases desde las que se teorizan situaciones en las cuales los agentes participantes, interactúan manejando cada cual un bagaje de información disímil. El aporte seminal para el desarrollo de este planteamiento provino de (Akerlof 1970), a lo cual se sumaron luego otras elaboraciones significativas, destacadamente las de ( J. E. Stiglitz 1975) y (Spence 1973).18
Si bien se habla de una “nueva síntesis” para describir este “nuevo consenso macroeconómico”, en realidad, la confluencia del neokeynesianismo con la “nueva macroeconomía clásica”, tiende a ser más un empeño ecléctico que una verdadera síntesis, puesto que implica un intento por armonizar cosas esencialmente incompatibles: los presupuestos neokeynesianos acerca de las imperfecciones del mercado, las rigideces de precios, sobre todo los salarios y las asimetrías de información, con las premisas de racionalidad y optimización, sumamente restrictivas, propias de la hipótesis de las expectativas racionales. Podría quizá argumentarse que la disonancia se resuelve en la medida de que el propósito es, precisamente, corregir las imperfecciones para acercarse, mediante aproximaciones sucesivas, al ideal utópico (o distópico, que también se le podría considerar así) que plantea la ortodoxia neoclásica. En el proceso se da lugar a un modelo teórico en el que se opera básicamente desde las presunciones epistémicas y metodológicas propias del neoclasicismo: tiempo lógico y equilibrio general walrasiano en un mundo sin dinero, algo que conserva vigencia en las elaboraciones más recientes y sofisticadas: las del “equilibrio general estocástico”. Al respecto, véase (Vázquez García 2023) y (Arestis 2009).
Y, sin embargo, este paradigma del así llamado “nuevo consenso macroeconómico” ha ganado enorme influencia mundial: las políticas económicas centradas en el control de la inflación, que operan mediante el manejo de la tasa de interés como principal dispositivo regulador, han devenido universales. Costa Rica no es la excepción, cuando, en realidad, nuestro banco central es uno de los que se apega, con mayor rigidez y dogmatismo, a esas prescripciones19.
Hay buenas razones para pensar que la confluencia entre neokeynesianismo y nueva macroeconomía clásica, que da lugar a esta “nueva síntesis”, en mucho refleja necesidades prácticas, pero, también, conveniencias ideológicas. Por una parte, el neokeynesianismo aporta un enfoque más pragmático, y relativamente más útil desde el punto de vista del ejercicio práctico de las políticas económicas. Por su lado, la nueva macroeconomía clásica aporta un aparato teórico, especialmente fructífero en lo político-ideológico en virtud de la elegante y sofisticada visión, que ofrece de los mercados capitalistas como mecanismos armoniosos y autorregulados.
Conclusión
En lo esencial, el neoliberalismo es tanto una propuesta ideológica como un proyecto político. Ambas facetas están inextricablemente vinculadas. En cuanto que ideología, generalmente asume los ropajes propios de un discurso de glorificación del libre mercado, lo que, a su vez, lo lleva a adoptar una posición escéptica, que, en algunas versiones más extremistas, deviene satanización de hecho, respecto del sector público de la economía, las instituciones y agencias gubernamentales y, en general, el Estado. Este posicionamiento ideológico tiene múltiples ramificaciones. Tiende a derivar en una ética individualista, centrada en el éxito personal más que propiamente en el logro personal. Y, en particular, un éxito que se mide en términos monetarios, se visibiliza en la riqueza que se posee y se vehiculiza como instrumento de poder. Todo lo cual deriva, con más o menos frecuencia, en un “sálvese quien pueda”, lo cual, planteado de otra forma, reivindica la idea de que el “mundo es de los más fuertes y audaces”. En el fondo, esto entraña hacer apología de la desigualdad en la distribución del ingreso y la riqueza justificada, principalmente, desde dos consideraciones: primero, en un contexto donde rigen los principios del libre mercado, quien es rico lo es por mérito propio, o sea, porque supo afrontar con talento, valentía y habilidad los desafíos de la competencia en el mercado y, segundo, porque los ricos son quienes innovan, hacen progresar la economía y, al invertir, también generan empleos. O sea, y en resumen, porque el mundo se mueve y avanza gracias a los ricos y a sus organizaciones empresariales corporativas.
Esta mezcolanza ideológica, que oscila entre la reivindicación del libre mercado y la exaltación de la riqueza y el éxito material y, por lo tanto, la exaltación de los muy ricos, tiene consecuencias importantes: al cabo tiende a motivar opciones de política que se decantan a favor de los sectores económicamente poderosos, sin reparar si eso pueda ser contradictorio con el presunto compromiso con el libre mercado, e incluso aunque ello signifique tolerar las estructuras oligopolizadas de los mercados y beneficiar a los muy ricos y a las grandes corporaciones, con formas diversas de subsidio y protección, más o menos sutiles y disimuladas o abiertas y desembozadas y, a menudo, muy generosas. Todo lo cual se hace a costas, obviamente, de los recursos públicos. La evidencia anecdótica es profusa. Por ejemplo, son conocidos los grandes contratos firmados con agencias gubernamentales, por parte de las empresas de Elon Musk, el hombre más rico del mundo al momento en que escribo esto, y, según la propaganda al uso (muy en la tónica anarcocapitalista de Murray Rothbard) un conspicuo ejemplo de “hombre que se hizo a sí mismo”, el “self-made man” por excelencia. Un reportaje de The New York Times -entre muchísimos otras crónicas y notas de prensa que se podrían mencionar- indicaba lo siguiente: “El año pasado (2023), las empresas de Musk suscribieron casi 100 contratos distintos con 17 agencias federales en virtud de los cuales el gobierno convino en entregarles 3000 millones de dólares” (Lipton 2024). En (MacGuillis 2022), un libro que aporta una exhaustiva investigación periodística, se anotan numerosos ejemplos acerca de cómo gobiernos locales y estatales, en Estados Unidos, compiten entre sí para atraer las inversiones de grandes corporaciones para lo cual recurren a manirrotos subsidios fiscales. En general, es conocida la laxitud en materia de legislación laboral y ambiental y la deriva hacia una creciente regresividad tributaria a favor de las grandes corporaciones y los sectores más ricos. Es, por lo demás conocida, la famosa frase del megarrico Warren Buffett, quien ha admitido públicamente que su tasa impositiva es inferior a la de muchos de los empleados de sus empresas (Ayuso 2016). Y, por si faltaran referencias, nada más recordemos el volumen excepcional de recursos públicos, que movilizaron los gobiernos de Estados Unidos y Europa para prevenir un colapso bancario al completo y mantener con vida a muchos de los bancos más grandes y poderosos durante la coyuntura de aguda crisis financiera y recesión de 2007-2010.
De manera que hay buenas razones para considerar que la opción libremercadista del neoliberalismo es del tipo de ofertas que llevan, bien disimulada, una leyenda escrita con letra muy pequeña, la cual advierte: “aplican restricciones”. Solo que esas “restricciones” no son pequeñas en lo absoluto.
Esto ha dado lugar a una deriva desigualitaria, de la que resultan sociedades fracturadas, en las que una cúspide extremadamente rica disfruta un estilo de vida de lujo, exceso, ostentación y despilfarro, completamente ajeno a la realidad de la gente de a pie, la cual, en cambio, enfrenta múltiples carencias y un achicamiento de sus oportunidades de vida. Esto también hace que las sociedades sean más violentas, tendencialmente proclives a proyectos políticos autoritarios e, incluso, con rasgos neofascistas. La investigación sobre la desigualdad ha venido desarrollándose desde hace ya algunos decenios, y, al día de hoy, ha acumulado un rico legado de aportes científicos sólidamente fundados. El economista británico Anthony B. Atkinson ha sido pionero en esta vertiente de investigación, ya desde su trabajo de 1978 titulado “Distribution of personal wealth in Britain” (Atkinson 1978), hasta trabajos publicados poco antes de su fallecimiento (Atkinson 2016). Otros nombres destacados, que han dado importantes contribuciones, son James K. Galbraith (por ejemplo: (Galbraith 2016) y Branco Milanovic ( Milanovic 2017). Por su parte, Gabriel Zucman (Zucman 2015), ha profundizado en el oscuro papel de los llamados “paraísos fiscales”, devenidos guaridas donde se oculta la riqueza y se facilita la evasión tributaria. Pero, sin duda alguna, ha sido el economista francés Thomas Piketty quien ha dado el aporte más influyente y poderoso en la investigación de la desigualdad en el mundo, sobre todo por medio de sus dos grandes obras: (Piketty 2014) y (Piketty 2019). En (Piketty 2023), se ofrece una síntesis, clara y didáctica, de algunos de los principales hallazgos derivados del trabajo de este gran economista francés.
El neoliberalismo es, pues, esa ideología que exalta el libre mercado, a condición de que este se amolde a los intereses y conveniencias de los más ricos. Pero, el neoliberalismo es más que una ideología que se entrecruza con una práctica política que, a menudo, contradice sus dichos. Hay desarrollos teóricos que no solo justifican y sostienen la narrativa y la propuesta neoliberal, sino también le proporcionan razones poderosas que lo energizan para llevar adelante su proyecto político, a la vez que le permite tranquilizar su conciencia para convencerse, a sí mismo, de que lo que hace no lo hace animado por estrechos intereses, sino asentado sobre un sólido, riguroso y sofisticado basamento científico.
Ese poderoso fundamento teórico surgió básicamente animado por el intento de polemizar con los aportes de Keynes y con el expreso objetivo de desacreditar su crítica y su propuesta teórica. Se polemizaba directamente con la versión, más bien edulcorada, del “keynesianismo de la síntesis neoclásica”, el mismo que, originalmente, planteó John Hicks. Solo muy raramente, y de forma más bien indirecta, se entró a discutir los repliegues más profundos de la crítica que Keynes formuló en su Teoría General, en la multiplicidad de sus ramificaciones epistémicas y metodológicas, aparte las propiamente teóricas. Y, sin embargo, la “síntesis neoclásica” de Keynes, empobrecida en su planteamiento teórico, tenía consecuencias políticas importantes, porque admitía imperfecciones en los mercados y definían una prioridad a favor del empleo y en desmedro de la inflación, todo lo cual no solo empujaban a la intervención pública en la economía, sino que, asimismo, justificaba políticas redistributivas como las que se aplicaron en Estados Unidos durante los decenios posteriores a la Segunda Guerra Mundial (Pizzigati 2013). Todo lo cual daba motivo sobrado para que el neoclasicismo, en sus diversas expresiones, sintiera la necesidad de articular una respuesta sólida y, al cabo, llevar adelante una contraofensiva que destronara a Keynes o, para ser más preciso, a la síntesis neoclásica de Keynes.
Sin embargo, es preciso reconocer que el impulso original que siembra las primeras semillas de ese “nuevo liberalismo” antecede a la publicación de la Teoría General. Fue un movimiento alimentado por la desazón que empezaba a madurar desde el decenio de 1920, un sentimiento y una preocupación que invadía el ánimo de los grandes autores liberales de la época, ante la constatación de que el liberalismo decimonónico había entrado en una fase de descrédito y pérdida de relevancia. Ya el “New Deal” de Roosevelt dio pruebas de que el péndulo ideológico se alejaba del liberalismo y no en el contexto de regímenes dictatoriales como el nazismo hitleriano o el estalinismo soviético, sino dentro de las propias sociedades democráticas occidentales. Keynes, pero, sobre todo, la amplia influencia adquirida por el “keynesianismo de la síntesis” en el período posterior a la Segunda Guerra Mundial, agregaron motivos muy poderosos que incentivaron el esfuerzo teórico en procura de reinstaurar el prestigio de las propuestas económicas liberales.
Fue un proceso de gradual maduración, como al modo de una casa levantada ladrillo a ladrillo. Los primeros intentos se localizan ya en la primera mitad del decenio de 1950. Con el tiempo, se amplía, se autocorrige y diversifica. A las alturas del decenio de 1970, logra ya mostrar un cuerpo teórico amplio, sólido, sumamente sofisticado, labrado con esmero hasta lograr imprimirle una atractiva apariencia de rigor científico. Los acontecimientos de aquellos años setenta -destacadamente el embargo petrolero de la Organización de Países Exportadores de Petróleo (OPEP) y la estanflación- agregaron condiciones políticas que aportaban el ecosistema ideal para que pudiera decretarse el derrocamiento de la ortodoxia keynesiana y su sustitución por una teoría económica neoclásica rediviva: renovada en su apariencia, trajeada de elegante formalización matemática, aunque, y en definitiva, lo que en esencia se hacía era retornar a la ortodoxia prekeynesiana, que, en cierto modo, era, así, resucitada. Con otros nombres y otro aspecto, volvía la “ley de los mercados” de Say o la “equivalencia ricardiana”. En especial, la “mano invisible” de Smith adquiría una centralidad que jamás tuvo en la obra del mismo Smith, metamorfoseada en una teoría que buscaba demostrar la capacidad de autorregulación virtuosa de los mercados.
Este artículo ha tenido el propósito de describir y trazar ese itinerario. Pero, sobre todo, su propósito ha sido sintetizar el proceso de gradual recomposición de la ortodoxia neoclásica y su ascenso progresivo hasta el desplazamiento del “keynesianismo de la síntesis”, pero procurando seguir su trayectoria hasta el período más reciente en el que emergieron nuevos reacomodos teóricos.