Meter as mãos na massa

Há uns anos comecei a brincar com simuladores de dívida pública. A minha primeira experiência constava do menu habitual: três variáveis exógenas (saldo primário, taxa de juro e crescimento do PIB) que se combinavam entre si para produzir um caminho dinâmico para a dívida pública. Mas o modelo rapidamente cresceu até se tornar num enorme Frankenstein, com juros endógenos, multiplicadores variáveis, prémios de risco e curvas de Phillips pelo meio. A versão final tinha mais de 15 inputs, e permitia gerar dinâmicas muito interessantes.

Além do mais, era divertido. O problema é que, apesar de poder falar sobre as lições que extraí do uso desses modelos, não tinha forma de ajudar o leitor a fazer o mesmo tipo de aprendizagem acompanhada. Por muito engraçado que seja ver as simulações de terceiros, há poucas coisas que substituam a experiência de operar um simulador com as próprias mãos.

O programa Fronteiras XXI, feito pela FFMS e pela RTP, deu-me a possibilidade de fazer uma versão pública desta ferramenta. Está aqui, para quem tiver interesse.

O modelo segue as regras convencionais, mas inclui duas extras que não costumam estar disponíveis: permite ao utilizador incluir (ou ignorar) os custos de longo prazo do envelhecimento da população e dá-lhe a possibilidade de fazer variar o multiplicador da consolidação orçamental. Esta opção permite, por exemplo, perceber em que medida é que as previsões podem sair furadas se quem está ao leme do Ministério das Finanças tiver uma ideia errada do impacto que a consolidação das contas tem na economia – um tópico que há uns anos gerou uma pequena guerra na academia.

Se quiserem uma leitura guiada do simulador, também podem seguir para o blogue da FFMS, onde deixei umas pistas para os curiosos. Boas leituras.

 

Anúncios

O futuro dos modelos de equilíbrio geral

Entre as quatro dezenas de leitores de leitores habituais deste blogue há certamente alguns que têm interesse em modelização macroeconómica. Não tenho certeza de que dentro deste leque selecto haja muita gente com interesse em filosofia da ciência – mas, se houver, então não deviam perder a excelente discussão digital entre Olivier Blanchard e outros ilustres macroeconomistas acerca da importância (e relevância) dos modelos de equilíbrio geral DSGE.

A primeira peça de Blanchard, no Peterson Institute – Do DSGE models have a future? – gerou reacções de Narayana Kocherlakota, Simon Wren-Lewis, Paul Romer, Steve Keen, Anton Korinek, Paul Krugman, Noah Smith, Roger Farmer e Brad Delong. Na resposta, Further Thoughts on DSGE, Blanchard arruma para um canto os pontos onde há convergência:

  • A macroeconomia deve ser analisada com equilíbrios gerais;
  • Diferentes objectivos (previsão, análise de políticas) requerem modelos diferentes
  • O equilíbrio parcial tem um papel importante no meio disto tudo

E elenca os pontos onde o consenso começa a desaparecer: o papel específico que os DSGE devem assumir no core do pensamento económico e na importância relativa dos fundamentos microeconómicos dos modelos. Tendo isto em conta:

If one does not accept the two propositions above, then DSGEs are clearly not the way to go—end of discussion. There are plenty of other things to do in life.

If, however, one does accept them (even if reluctantly), then wholesale dismissal of DSGEs is not an option. The discussion must be about the nature of the micro foundations and the distortions current models embody, and how we can do better.

Do current DSGEs represent a basic Meccano set, a set that most macroeconomists are willing to use as a starting point? (For Meccano enthusiasts, the Meccano set number is 10. The Meccano company actually has also gone through major crises, having to reinvent itself a few times—a lesson for DSGE modelers.) I believe the answer to this is no. (I have presented my objections in my first piece on the topic.) So, to me, the research priorities are clear:

First, can we write down a basic model most of us would be willing to take as a starting point, the way the IS-LM model was a widely accepted starting point earlier in time? Given technological progress and the easy use of simulation programs, such a model can and probably must be substantially larger than the IS-LM but still remain transparent. To me, this means starting from the New-Keynesian model, but with more realistic consumption- and price-setting equations, and adding capital and thus investment decisions.

Second, can we then explore serious improvements in various dimensions? Can we have a more realistic model of consumer behavior? How can we deviate from rational expectations, while keeping the notion that people and firms care about the future? What is the best way to introduce financial intermediation? How can we deal with aggregation issues (which have been largely swept under the rug)? How do we want to proceed with estimation (which is seriously flawed at this point)? And, in each case, if we do not like the way it is currently done, what do we propose as an alternative? These are the discussions that must take place, not grand pronouncements on whether we should have DSGEs or not, or on the usefulness of macroeconomics in general.

Já agora, os interessados na questão dos DSGE podem querer seguir um debate sobre essa questão que teve lugar há poucos anos na blogosfera: aqui, aqui e aqui.

E se o tema for demasiado específico, pelo menos leiam o que o mesmo Blanchard tinha a dizer acerca da evolução do pensamento macroeconómico em 2008 (o célebre The state of macro) e a avaliação actualizada que ele faz do campo de investigação: Rethinking Macro Policy: getting granular (2013), Rethinking Macro Policy II (2013) e Where danger lurks (2014).

«Não é a direcção – é o ritmo» (2)

A principal implicação do post anterior é que é possível, pelo menos em princípio, suavizar um pouco a trajectória de consolidação orçamental sem prejudicar muito a situação financeira no longo prazo.

Continuar a ler

A macro nos dias de hoje

Na blogosfera internacional corre um debate muito interessante sobre a metodologia da macroeconomia. O nível está muito lá em cima, com contributos de Olivier Blanchard, Wolfgang Munchau, Simon Wren-Lewis, Paul Krugman, David Andolfatto, Tony Yates e Noah Smith. O Brugel fez um apanhado aqui. As citações de baixo são de Noah Smith, mas leiam tudo (ou pelo menos os textos de Smith e Andolfatto), porque vale a pena.

Personally I think DSGE techniques haven’t  reaped dramatic benefits (yet). But what other alternative is better? When I ask angry “heterodox” people “what better alternative models are there?”, they usually either mention some models but fail to provide links and then quickly change the subject, or they link me to reports that are basically just chartblogging. Yeah, sure, if you put out hand-wavey reports saying “capitalism sux, there’s gonna be a crash!” every year or two, you’re eventually going to be able to say “see, I told you so”. But that’s no replacement for real modeling.

E Olivier Blanchard, no Vox: Rethinking macroeconomic policy:

Fiscal stimulus can help. Public debt can increase very quickly when the economy tanks, but even more so when contingent – explicit or implicit – liabilities become actual liabilities. The effects of fiscal consolidation have led to a flurry of research on multipliers, on whether and when the direct effects of fiscal consolidation can be partly offset by confidence effects, through decreasing worries about debt sustainability.

Admittedly, navigation by sight may be fine for the time being. The issue of what debt ratio to aim for in the long run is not of the essence when there is a large consensus that it is too large today and the adjustment will be slow in any case – although, even here, Brad DeLong has provocatively argued that current debt ratios are perhaps too low. But how to assess what the right goal is for each country? This remains to be done. It has become clear that there is no magic debt-to-GDP number. Depending on the distribution of future growth rates and interest rates, on the extent of implicit and explicit contingent liabilities, one country’s high debt may well be sustainable, while another’s low debt may not.

Curvas de indiferença comportamentais

A economia comportamental já aí anda há uns anos, mas até agora tem sido encarado mais como uma compilação dispersa de descobertas interessantes do que propriamente como uma parte integrante da teoria económica mainstream. Mas isso está a mudar e pode ler-se, no Vox, uma proposta para começar a incorporá-la na microeconomia: Sticky prices and beahavioural indifference curves.

According to conventional indifference curve diagrams, when deciding between two goods – say, food and clothing – it is as though we’ve never consumed them before. Thus, we are assumed to come to the problem in a pristine state, without indicating the amount of the goods in question we consumed in the prior period or are adapted to. However, this is contradictory, because if we have not consumed these items before, how are we supposed to know how much utility we should expect from them?

Hence, the customary indifference curve depends on the implicit assumption that choices along indifference curves are reversible. That is, if an individual owns x and is indifferent between keeping it and trading it for y, then when owning y the individual should be indifferent about trading it for x. If loss aversion is present, however, this reversibility will no longer hold (Knetsch 1989, Kahneman et al. 1991). Knetsch and Sinden (1984) were the first to point out that the standard assumption pertaining to the equivalence of losses and gains is contradicted by the experimental evidence.

(…)

In sum, behavioural indifference curves are relative to a reference point. The endowment effect implies that people are willing to give up an object only at a higher price than the price at which they are willing to buy it, i.e. it is psychologically more difficult to give up an object than to acquire it. This changes the shape and properties of the indifference map, which has far-reaching implications not only in classrooms, but also in applied areas such as the evaluation of welfare states and the stickiness of economic variables such as wages, prices, and interest rates (Knetsch et al. 2012). This salient issue ought no longer to be ignored, and needs a much wider research agenda than hitherto allotted to it at the margins of the discipline.

Even at this stage it is important to incorporate behavioural indifference curves into the curriculum and stop teaching outdated concepts. If you think that behavioural indifference curves would be too complicated for beginners then I would urge you not to teach the conventional ones until the students are ready for the current version, because one should not mislead students by teaching inappropriate concepts. If the straight-talking Nobel-prize-winning physicist Richard Feynman (1918–1988) were still with us, he would concur with this view. In his famous 1974 commencement address at the California Institute of Technology, he beseeched the graduating class to practice scientific integrity, utter honesty, and to lean over backwards so as not to fool themselves (and of course others) (Feynman 1985). I believe that the same is true for us – teachers of economics, it is time to start leaning over backwards and to stop teaching the standard indifference curves.

 

Dívida pública nos 60% em 2030 – as contas da OCDE

O Economic Outlook da OCDE, publicado hoje, faz uma análise de sustentabilidade à dívida pública das economias desenvolvidas. A pergunta de partida da OCDE é: qual o ajustamento orçamental necessário fazer para que a dívida pública atinja os 60% do PIB em 2030?

A resposta aparece no quadro em baixo, retirado do mesmo Economic Outlook (página 239). A primeira coluna mostra a consolidação feita de 2010 a 2013 e a que está prevista para 2014/2015, em termos de melhoria do saldo primário. A segunda coluna mostra a consolidação adicional que é preciso fazer para atingir a meta dos 60%.

xxx

A imagem dá a entender que é necessário obter uma melhoria contínua do saldo primário ao longo dos próximos 15 anos, de 1,9% do PIB em média. Na verdade, isto é apenas uma escolha de terminologia infeliz da OCDE. Como se lê no próprio relatório, um pouco acima da tabela:

Around one-third of OECD countries have maintained gross public debt below 60% of GDP through the crisis and its aftermath. In the remaining OECD countries, there is a range of further consolidation requirements beyond 2013. Some of that required change includes commitments made by governments to improve budget positions by 2015, which are incorporated in the short-term projections described in previous chapters. The remainder is measured here as the average projected underlying primary balance after 2015 that is required to stabilise debt at 60% of GDP. The average consolidation requirement is a robust measure of consolidation needs as it is little affected by the timing of consolidation and is conceptually similar to, and empirically closely correlated with, measures of the so-called “fiscal gap”, which measures the immediate increase in the underlying primary balance, which if sustained, will ensure a particular debt target is reached in a particular year.

Trocando por miúdos: a ‘melhoria média de 1,9% do PIB’ não significa que o saldo primário tenha de melhorar 1,9% em média a cada ano no período 2016-2030. Significa que o saldo primário médio ao longo desse período terá de ser 1,9% mais alto do que o valor de fecho de 2015.

Isto pode ser atingido de várias formas: através de uma consolidação orçamental súbita desse valor em 2016; ou através de uma consolidação faseada de 0,5% do PIB ao longo de quatro anos; ou através de uma melhoria muito suave do saldo ao longo de todo o período até 2030 – digamos, 0,25% do PIB todos os anos. Todos estes regimes de consolidação cumprem a restrição da OCDE e permitem, por isso, atingir uma dívida pública de 60% do PIB em 2030. A imagem de baixo representa graficamente estas três combinações:

1

Mas o custo económico e social da consolidação orçamental não pode ser inferido deste gráfico, porque uma boa parte do défice público reduz-se naturalmente em resultado do crescimento económico. Para calcular esse custo, é necessário traduzir a melhoria do saldo primário em medidas de consolidação orçamental.

A imagem de baixo apresenta uma estimativa desse custo. As contas de 2016 em diante são fáceis de fazer: i) assume-se que o PIB cresce conforme as previsões da Troika, convergindo para 1,8% no longo prazo; ii) assume-se que cada ponto de crescimento económico se traduz numa melhoria orçamental de 0,3%, em linha com as análises de risco que acompanham os documentos orçamentais do Ministério das Finanças.

Partindo daqui, calculam-se dois indicadores: as barras vermelhas, que mostram a melhoria do saldo primário que decorre do crescimento económico (e assumindo que não há alteração das restantes variáveis orçamentais) e as barras azuis, que mostram o ajustamento orçamental que fica por fazer caso se pretenda atingir uma dívida pública de 60% do PIB em 2030, distribuindo o ajustamento pelo período 2016-2020.

2

O gráfico começa por mostrar como é que a consolidação foi feita entre 2010 e 2013: quase metade das medidas de austeridade foram ‘comidas’ pelo impacto negativo da recessão económica e de outros efeitos inerciais (por exemplo, aumento da despesa com actualização de pensões, ou revisão em alta de encargos com PPP’s). Em 2014, este segundo efeito torna-se marginalmente negativo; e em 2015 é já positivo e contribui na mesma medida que as medidas de consolidação.

E no período de ajustamento adicional (2016-2020)? De forma surpreendente, não são necessárias mais medidas de consolidação. O simples crescimento económico (em torno dos 1,8%) chega para melhorar o défice orçamental nos 0,5 pontos percentuais necessários. E a partir de 2020 há margem orçamental para começar a reverter os cortes (a barra a azul entra em terreno negativo).

É óbvio que o cenário não é tão idílico quanto é sugerido pelo gráfico. Sobretudo porque o efeito ‘Impacto PIB + inércia’ não será tão positivo quanto aparece na imagem: para além da redução do défice derivada do crescimento económico, haverá que contabilizar desvios que entretanto surjam, e que entram na categoria ‘inércia’ – crescimento inercial de pensões, por exemplo, ou aumento dos custos com o SNS. (Para já, é possível identificar um desvio desta natureza: a devolução do corte salarial da função pública a partir de 2015).

Na prática, será preciso tapar buracos de um lado, e arranjar remendos para o outro. Mas o objectivo não é defender que é possível atingir a meta do Tratado Orçamental sem mais custos; é apenas mostrar que esses custos são muito menores do que os “1,9% de PIB ao ano, todos os anos durante 15 anos” que o documento da OCDE poderia levar a pensar.

Ler também: O Tratado Orçamental e o pós-Troika Saldos primários em tempos de crescimento

 

Austeridade, crescimento e o caso do Reino Unido

Desde 2012 que este blogue dedicou muito espaço à questão dos multiplicadores e às implicações que a revisão desses mesmo multiplicadores têm para a velocidade da consolidação orçamental (1, 2, 3, 4, 5, 6, 7). Desde então, a economia começou a recuperar e perdi algum tempo a tentar explicar por que é que a retoma não punha em casa nada do que tinha vindo a ser argumentado pelos defensores dos ‘multiplicadores altos’ (1, 2, 3).

Entretanto, descobri um excelente post de John Portes que versa sobre o mesmo tema, com mais rigor e elegância: Fiscal policy, plan A and the recovery: explaining the economics. O texto debruça-se sobre importantes questões como: a recuperação invalida a tese dos multiplicadores elevados? A recuperação justifica a estratégia orçamental dos Governos que optaram por dar prioridade ao controlo do défice? E o que é que tudo isto significa para o perfil da retoma nos próximos tempos? Como bónus, uma análise ao caso do Reino Unido.

 

Sem Título

This shows the OBR’s estimate of the impacts of fiscal consolidation on the level of GDP.  The OBR thinks consolidation reduced GDP by about 1.5%, with almost all that impact feeding through by 2012. Now, of course, Krugman and others argued all along that the multipliers were in fact larger, and hence the impact more negative. Well, suppose we were right, and – for the sake of argument – the multipliers were in fact twice as big.   In that case, the negative impact on GDP would have been about 3%. But again, almost all that impact would have been seen by 2012 – all you would do to the OBR’s chart is double the size of the bars. What would bigger multipliers imply for growth now? Well, in fact, the chart suggests that the OBR thinks fiscal consolidation is now having a (very small) positive impact on growth. So if the multipliers are in fact bigger than the OBR thinks, that small positive impact would be larger. As Simon Wren Lewis put it

In the textbook case austerity implies a deeper recession but then a subsequent recovery that is stronger as a result. So in that case rapid growth provides evidence in favour of the ‘fiscalist’ case, not against it.

So the Chancellor is flat wrong, at least if you think the OBR is reasonably close to being correct about the timing of the impacts of consolidation. That doesn’t mean, in this particular case, that larger fiscal multipliers can explain the current recovery – it just means that those who argue that the recovery supports the view that multipliers are small simply don’t understand the basic economic concepts here.