Uncategorized

Momento ARIMA do Dia

Dicas de Cryer & Chan (2010) citado outro dia aqui, em um dos nossos Momentos R do Dia. A dica, na verdade, diz respeito ao risco de se sobreparametrizar os modelos. Assim, dizem eles (em três partes), nas páginas 187-8:

1. Specify the original model carefully. If a simple model seems at all promising, check it out before trying a more complicated model.

2. When overfitting, do not increase the orders of both the AR and MA parts of the model simultaneously.

3. Extend the model in directions suggested by the analysis of the residuals. For example, if after fitting an MA (1) model, substantial correlation remains at lag 2 in the residuals, try an  MA(2), not an ARMA(1,1).

Não é novidade nenhuma quando se pensa no que se aprende em Econometria I, com meu colega Salvato: você testa um modelo estimando, digamos, dois parâmetros e, para ver se os mesmos são invariantes à adição de uma terceira variável, inclui a mesma. Ao estimar a nova regressão, claro, você espera que os parâmetros originais não se alterem (certo?).

A mesma idéia vale nos modelos ARIMA. O que os autores fazem aí em cima é dar umas regras práticas para ajudar a evitar problemas. Repare que não há como escapar: você tem que analisar os resíduos. É inevitável o seu trabalho duro nesta hora e não reclame de sua vida. Eu, por exemplo, estou com 11 mil observações com o computador lento apenas para gerar um pequeno gráfico bonito e interativo para meus amigos leitores, exatamente neste momento.

Aliás, aproveitando que estou citando autores, que tal o falecido Kennedy (2008):

Granger (1982) claims that ARIMA should really have been called IARMA, and thus a key reason for the success of the Box-Jenkins methodology is the pronounceability of their choice of acronym. It should also be noted that ARIMA has been known to replace MARIA in the well-known West Side Story song, allowing it to play a starring role in graduate student skits! (Kennedy, P. (2008), A guide to econometrics, 6th edition, 2008, p.304).

O autor ainda fala da análise espectral – um tópico que eu sempre quis estudar com mais carinho (e que nunca estudei com o merecido carinho…) – e que é sempre interessante. Dá para fazer um pouco de análise espectral no R, claro. Por enquanto, desta vez, fiquemos apenas com as dicas e com esta belíssima imagem por mim gerada em homenagem ao bom e velho ruído branco.

20131204_195853-002
Sim, somos brancos, ruídos brancos, somos vários e somos todos assim, deste jeito…
Uncategorized

Momento R do Dia – A Função de Autocorrelação Estendida (EACF) e os modelos ARIMA

O pessoal que usa modelos ARIMA gosta de olhar para os correlogramas. Entretanto, alguns autores propuseram uma ferramenta alternativa que é a função de autocorrelação estendida (EACF). A proposta está no artigo em Tsay & Tiao (1984) (cuja referência completa você encontra pesquisando a página do prof. Tsay) e, em português, aparece citada na segunda edição de Morettin & Toloi pela sempre ótima editora Blücher. Em poucas palavras:

The EACF method uses the fact that if the AR part of a mixed ARMA model is known, ‘filtering out’ the autoregression from the observed time series results in a pure MA process that enjoys the cutoff property in its ACF. (Cryer, J.D. & Chan, K-S. Time Series Analysis with applications in R, Springer, 2010, 2nd edition, p.116)

Mas, o quanto esta função nos ajuda a identificar o processos ARMA? O que Tsay e Tiao fazem é propor um método tabular de visualização (os detalhes podem ser encontrados nos textos citados). Vou aproveitar que o pacote TSA do R tem o comando eacf() e fazer alguns exemplos básicos. Para cada processo simulado (n = 500) vou colocar o EACF correspondente, ok?

Primeiramente, os casos simples: AR(1) e MA(1). Para estes, a EACF parece ter o padrão óbvio. Visualmente, você analisa o padrão triangular de “zeros”. No caso do AR(1), ele começa em AR(1) e MA(0). No caso do MA(1), é exatamente o oposto. o padrão triangular começa em AR(0) e MA(1).

eacf_arma1

 

As coisas não ficam muito mais fáceis com um ARMA(1,1).

eacf_arma2

Qual a diferença do caso A para o caso B? Apenas os parâmetros usados na simulação. Para o primeiro, temos um phi = 0.8 e um theta = 0.3. No segundo, fiz phi = theta = 0.8.

No caso dos dois ARMA(2,2) que simulei, a EACF já ajudou um pouco mais, mas não vou reproduzir os resultados aqui.

Outra ferramenta útil para se decidir sobre números de defasagens são os critérios de seleção AIC ou BIC embora a literatura indique o uso destes apenas em modelos autoregressivos puros. O problema é que nem sempre sabemos que modelos temos à nossa frente. Assim, usando o mesmo AR(1) simulado acima, fiz uma busca pelo melhor modelo usando o critério BIC para um range de p= 0 a 6 e q= 0 a 6.

bic_range

As cores mais escuras indicam que o melhor modelo seria um AR(1) com intercepto.

As dicas de R

Forneço algumas dicas para vocês então.

library("astsa")
library("forecast")
library("TSA")
# AR
set.seed(123456)
y <- arima.sim(n = 500, list(ar = 0.6), innov=rnorm(500))
op <- par(no.readonly=TRUE)
layout(matrix(c(1, 1, 2, 3), 2, 2, byrow=TRUE))
plot.ts(y, ylab='')
Acf(y, main='Autocorrelations', ylab='',
    ylim=c(-1, 1), ci.col = "black")
Pacf(y, main='Partial Autocorrelations', ylab='',
     ylim=c(-1, 1), ci.col = "black")
par(op)

# usando o comando eacf de TSA
eacf(y)
# usando o comando armasubsets de TSA, com
# range de p = q = 6
res=armasubsets(y=y, nar=6, nma=6, y.name='test',ar.method='ols')
plot(res)

# agora um ARMA(1,1)
m <- arima.sim(model=list(ar=c(.8),ma=c(.3)), n = 500)
op <- par(no.readonly=TRUE)
layout(matrix(c(1, 1, 2, 3), 2, 2, byrow=TRUE))
plot.ts(m, ylab='')
Acf(m, main='Autocorrelations', ylab='',
    ylim=c(-1, 1), ci.col = "black")
Pacf(m, main='Partial Autocorrelations', ylab='',
     ylim=c(-1, 1), ci.col = "black")
par(op)
eacf(m)

# e um ARMA(2,2)
m2 <- arima.sim(model=list(ar=c(-.1,-.8),ma=c(-.7,.1)), n = 500)
op <- par(no.readonly=TRUE)
layout(matrix(c(1, 1, 2, 3), 2, 2, byrow=TRUE))
plot.ts(m2, ylab='')
Acf(m2, main='Autocorrelations', ylab='',
    ylim=c(-1, 1), ci.col = "black")
Pacf(m2, main='Partial Autocorrelations', ylab='',
     ylim=c(-1, 1), ci.col = "black")
par(op)
# a partir daqui, EACF e o criterio BIC
eacf(m2)
res=armasubsets(y=m2, nar=6, nma=6, y.name='test',ar.method='ols')
plot(res)

Espero que tenha se divertido. Ah sim, não duvido que o leitor mais esperto vá pegar sua série de dados para tentar alguma coisa. Um IPCA ou uma PIM-PF ou alguma taxa de câmbio, sei lá. Só sei que é fácil replicar os comandos. Afinal, você viu primeiro aqui. ^_^

Uncategorized

Momento R do Dia: nascem mais Akiras do que Massakos no Japão?

nicesexratios
A gurizada nasce…mas tem sempre um pouco mais de demanda por soldadinhos relativamente à de bonecas?

Intuitivamente, qual deve ser a razão dos sexos em um país? Digo, você espera que o percentual de nascimentos entre homens e mulheres seja de 50% ou diferente de 50%?

Pois é. Agora, considere os dados do Japão (tabela 4 desta página). A série histórica começa em 1947 e vai até 2010. A medida: The sex ratio at birth is the ratio of males to 100 females. Eu, que não sou da área de saúde, fiquei meio confuso com a medida, mas, ao consultar uma fonte superficial, vi que o que eu imaginava faz sentido. Assim, dividi os dados por 100.

Será esta uma série estacionária? Veja um resumo da série.

sex_ratiojapan1

Pois é. Dá para ficar em dúvida, não dá? Vejamos o gráfico da série mais de perto. Sim, você já o viu lá no alto. Ambos foram gerados no R, mas não vou dar a dica do gráfico mais bonito (ahá!). Aquele lá no alto é facilmente construído no R, mas, desta vez, não vou te dar almoço tão barato (quase grátis). Das dicas anteriores, você poderá facilmente descobrir como fazer um gráfico apresentável em relatórios. Lembre-se: estudar faz bem e eu investi tempo aqui. Portanto, faça sua parte também. Mas vamos em frente. Olha o gráfico aí.

sexratio_japan2_correto

O exercício, então, é o de fazer o teste para procurar evidências de raiz unitária na série. Será que a razão dos sexos é um passeio aleatório? Usando o teste ADF com tendência (não parece o melhor teste, não é?), percebe-se que o coeficiente da tendência determinista não é significativo. Já o teste apenas com deslocamento (drift) retorna (saída parcial):

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept)      0.3169 0.1274 2.487 0.0158 *
z.lag.1          -0.2995 0.1204 -2.487 0.0158 *
z.diff.lag       -0.5293 0.1071 -4.944 6.88e-06 ***

Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.004193 on 58 degrees of freedom
Multiple R-squared: 0.5307, Adjusted R-squared: 0.5145
F-statistic: 32.79 on 2 and 58 DF, p-value: 2.973e-10

Value of test-statistic is: -2.4866 3.1163

Critical values for test statistics:
1pct 5pct 10pct
tau2 -3.51 -2.89 -2.58
phi1 6.70 4.71 3.86

Ou seja, a hipótese de raiz unitária não é rejeitada e nem a de que seja um passeio aleatório puro. Assim, talvez a variação da razão dos sexos seja estacionária. Fazer o teste não é difícil, mas é bom dar uma olhada no gráfico da mesma antes.

diff_sex

Ok, há uma variação marcada ali no meio da década dos 60, já vista no gráfico anterior. Basta olhar os dados para ver o que há. Usei o default do teste KPSS (o exercício, aqui, é fazer o aluno aprender os comandos, então, vamos variar) para o teste sem tendência determinista, mas com deslocamento.

O resultado?

#######################
# KPSS Unit Root Test #
#######################

Test is of type: mu with 3 lags.

Value of test-statistic is: 0.0539

Critical value for a significance level of:
10pct 5pct 2.5pct 1pct
critical values     0.347 0.463 0.574 0.739

Bem, o valor calculado é menor do que qualquer valor crítico e a hipótese nula do teste é a de estacionaridade. Bem, a partir daqui pode-se começar a brincadeira de se estimar o modelo ARIMA que explica a diff(jsex_ratio).

Claro, um exercício mais completo exige que o aluno faça ambos os testes para ambas as séries: em nível e em diferença. Obviamente, sem ler a parte teórica antes, a repetição pura e simples não o permitirá uma nota de aprovação na prova.

Mas vejamos o que nos resta.

diff_sex_arima

Os correlogramas não mentem: na função de autocorrelação acumulada, vê-se claramente que as duas primeiras autocorrelações são significativas (estatisticamente diferentes de zero, caso você não tenha entendido). No caso da função parcial, apenas a primeira autocorrelação se destaca. Agora, o que isso significa? Uma opção é que seja um ARIMA(1,1,0). Mas a série é curta e anual, o que pode nos esconder os padrões. Por que não um ARIMA (0,1,2)? Ou ainda um ARIMA (1,1,1)?

A metodologia Box-Jenkins implicaria testar estes modelos. Vou apresentar os resultados para um deles, o ARIMA (1,1,1). Os outros ficam por sua conta. A seguir, os resíduos, mostrando-nos um bom ajuste.

arima111Veja lá. Os correlogramas do resíduos não mostram nada fora dos intervalos de confiança (obviamente, a defasagem zero não conta (por que?)). Os p-valores para o teste de Ljung-Box nos mostram uma alta probabilidade que não-rejeição da hipótese nula do teste (qual é?).

O modelo:

> arima111<-Arima(jsex_ratio,order=c(1,1,1))
> summary(arima111)
Series: jsex_ratio
ARIMA(1,1,1)

Coefficients:
ar1          ma1
-0.5179   -0.3523
s.e. 0.1608    0.1886

sigma^2 estimated as 1.814e-05: log likelihood=250.07
AIC=-494.14 AICc=-493.72 BIC=-487.75

Training set error measures:
ME               RMSE            MAE                  MPE           MAPE      MASE
Training set 1.00896e-05 0.004227749 0.002987203 -0.0002905378 0.2817057 0.7698836

Pois é. Com estas medidas de acurácia de previsão, podemos comparar estes e outros modelos. Sobre a metodologia Box-Jenkins, bem, veremos depois. Para facilitar sua vida, eis o código usado aqui (com mais resultados do que os apresentados).

sex_ratio <- read.table(file = "clipboard", sep = "\t", header=TRUE)
head(sex_ratio)

japan_sex_ratio<-ts(sex_ratio$Sex.ratio.at.birth,start=c(1947),freq=1)

plot(japan_sex_ratio)

japan_sex_ratio_adjusted<-japan_sex_ratio/100
jsex_ratio<-japan_sex_ratio_adjusted
plot(jsex_ratio)

library(forecast)
tsdisplay(jsex_ratio)

library(urca)
summary(ur.df(jsex_ratio,type=c("trend")))
summary(ur.df(jsex_ratio,type=c("drift")))

plot(diff(jsex_ratio))

summary(ur.kpss(diff(jsex_ratio), type=c("mu")))

tsdisplay(diff(jsex_ratio))
arima111<-Arima(jsex_ratio,order=c(1,1,1))
summary(arima111)

# salvamos os resíduos e examinamos...
res<-residuals(arima111)
tsdisplay(res)

# fazemos o teste de Ljung-Box

Box.test(res, lag=10, fitdf=4, type="Ljung")

# ou poderíamos ver os residuos assim:
tsdiag(arima111)

# e a previsão...

plot(forecast(arima111,h=10)

Bem, pessoal, então, é isto. A razão dos sexos é um passeio aleatório puro e a parte estacionária pode ser modelada como um ARIMA (1,1,1). O exercício mostra o que mais você pode fazer. Primeiro, após ler sobre a metodologia, estimar os outros modelos e gerar resultados similares aos deste texto. Claro, em segundo lugar, compará-los. Em terceiro lugar, não se esquecer de olhar não apenas os gráficos, mas os testes de diagnóstico, bem como as medidas de acurácia de previsão.

Aqueles que curtem um teste sobre estas medidas de acurácia, busquem na documentação do R algo sobre o teste de Diebold-Mariano, por exemplo.

Concluindo, as mulheres devem continuar sendo alvo de disputas entre os garotos lá no Japão, não?

Uncategorized

Consumo e Renda no Japão (2004-2010) – outra discussão de Econometria Aplicada

Vamos falar de consumo e renda hoje. Aliás, vamos falar de função consumo. Vamos aproveitar a boa vontade do Statistics Bureau do governo japonês e aproveitar a oportunidade para fazer uma reflexão sobre a mais famosa das funções em Ciências Econômicas desde Keynes: a função consumo. Para os aficcionados do gênero, nada mais importa na vida se você não observar esta coisinha aqui: Ct = a + bYt + εt, no qual nosso último termo é o famoso erro aleatório lá dos livros de Econometria.

Então segura que vem mais Econometria!

Os dados, da tabela 20-6, são referentes aos gastos e renda das famílias (Average of Monthly Income and Expenditures per Household (Workers’ Households) de todo o país. A série só é contínua (dados mensais) a partir de 2004. Assim, nossa análise se inicia neste ano. Antes de mais nada, vejamos o gráfico de nossas séries (trabalharei com apenas duas delas).

japao_consumo_Familias

Nada como uma economia estagnada, não? Sem muito rigor, percebe-se que as séries todas giram em torno das respectivas médias que, por sinal, parecem relativamente constantes (alguém diria: a série parece ser estacionária). A economia japonesa, aliás, está estagnada? Julgue você mesmo pelo gráfico abaixo (gerado com os dados do FED).

Embora os dados sejam distintos, dá para se ter uma idéia de como a vida de uma família mediana tem sofrido em termos de consumo. Não daria mesmo para esperar uma renda média crescente ao longo do tempo. Eis aí um aspecto qualitativo da estacionariedade de uma série: ninguém gosta de renda estacionária, mas sim de renda com tendência de aumento. Enfim, vamos em frente.

Olha a sazonalidade….será?

Os dados aparentam ter algum aspecto sazonal? É difícil ver pelos seis gráficos anteriores. Então, novamente, façamos uso do bom e velho gráfico da sazonalidade, intuitivo e simples. Neste post farei uso de duas das variáveis acima: gastos em consumo e salários. Eis os gráficos pertinentes.

wage_sazonal cons_sazonal

A evidência de que há sazonalidade parece ser justificada (alguém poderia querer usar os famosos gráficos das funções de autocorrelação e autocorrelação parcial e, creio, é uma boa idéia).

Então veio a hora: vamos ver a função consumo? Consumo em função da renda. A teoria me diz que devo considerar apenas as duas variáveis, mas minha análise dos dados da amostra me diz que devo olhar para a sazonalidade. Uma forma simplificada – e nem sempre correta – de analisar a sazonalidade é usar dummies sazonais. Bem, no quadro abaixo, a coluna (2) nos dá os resultados da regressão linear incluindo as dummies.

sazonalidade_e_tendencia_fazem_falta

Bom, eu sei que há várias observações – e não me refiro ao número de observações da amostra – a serem feitas aqui. Primeiro, para os que adoram um R ao quadrado, bem, reparem como a sazonalidade não pode ser desprezada. A regressão sem as dummies sazonais tem um R ao quadrado bem baixo (ajustado por graus de liberdade ou não).

Mas este ajuste não nos diz muita coisa se os resíduos da regressão não se aproximarem de algumas hipóteses, uma delas, a de normalidade. Abaixo, vemos como os resíduos das duas regressões se comportam com respeito a uma distribuição Normal teórica (os famosos gráficos Q-Q).

residuos_r

residuos_r2

Pode não ser a distribuição mais normal do mundo, não é? Em termos de autocorrelação dos resíduos, sob a hipótese nula de que a mesma é de primeira ordem, aplicando um teste de Breusch-Godfrey, obtemos um resultado que diferencia mais ainda as duas regressões. No primeiro caso, temos uma alta probabilidade de se rejeitar esta hipótese, ao contrário da segunda regressão (a que inclui as dummies sazonais).

Então, à primeira vista, parece haver um trade-off entre os modelos. No primeiro caso, não se consegue captar os efeitos sazonais com exatidão. No segundo, temos um padrão de autocorrelação que não deveria estar nos resíduos. Você pode visualizar isto nas funções de autocorrelação dos resíduos das respectivas regressões. Eles estão a seguir.

acf_residinicial

acf_resid2

Viu só como estas coisas não são assim tão simples? Veja só o aspecto da sazonalidade. Uma coisa que fizemos foi supor que ela é aditiva. Cada efeito mensal se soma ao anterior. Entretanto, ela não precisa ser assim, como nos ensinam lá nas aulas sobre modelos ARIMA com sazonalidade (SARIMA).

Então, uma opção seria estimar uma espécie de função consumo dentro deste arcabouço (as chamadas funções de transferência). De certa forma, isto equivale a estimar um modelo autoregressivo com defasagens distribuídas (ADL). Para mais detalhes, veja o que se diz aqui: um modelo ADL com uma suposta estrutura racional para as defasagens equivaleria a uma função de transferência. Caso você não queira detalhes técnicos, apenas imagine que estou, pragmaticamente, tentando captar a autoregressão incluindo-a como uma variável defasada na minha equação estimada (2) da tabela acima.

Fazendo isto, obtenho uma nova função consumo e os erros parecem não possuir autocorrelação de primeira ordem. A regressão é esta:

consumo_japao_com_ar

Repare que, neste modelo, a propensão marginal a consumir no longo prazo é bem baixa (0.167/(1-0.408)) = 0.28. Assim, um aumento de 1 Yen no salário geraria um aumento de consumo de 0.28 centavos de Yen.

A volta da prática para a teoria…e vice-versa

Ok, estimamos a função e, pensando apenas no problema de auto-correlação, incluímos a variável dependente defasada. O leitor mais chegado na teoria vai me perguntar: mas e agora? Isto aí “representa” alguma teoria sobre o consumo?

Para nossa sorte, sim. Esta função consumo pode ser encarada como a contrapartida empírica do modelo da função consumo sujeito à existência de hábito (inércia no consumo). Charemza & Deadman (2002) mostram que este modelo é derivado a partir da seguinte estrutura:

Cdt = a + bYt

Ct – Ct-1 = (1-γ)(Cdt – Ct-1) + ut

Cd é o consumo desejado, ut é um erro aleatório e, claro, 0 < γ <1 é um parâmetro que ilustra o “hábito”. Em outras palavras, a variação do consumo é uma função da diferença do consumo desejado e do consumo efetivo passado sujeito, obviamente, a um erro aleatório aditivo.

Quando você resolve este sistema – você tem que fazer isto para fazer com que a variável não-observável, Cd, desapareça (por que? Porque você não tem dados da mesma para estimar) – você encontra a seguinte função consumo:

Ct = (1- γ)a + γCt-1 + (1- γ)bYt + ut.

Não é preciso pensar muito para ver que a inclusão das dummies sazonais apenas controlam o efeito da sazonalidade e nossos parâmetros seriam:

(1- γ)a = 45.217

γ = 0.408

(1- γ)b = 0.167

Logo, a = 76.38 e b = 0.28. Note que a propensão marginal a consumir, no curto prazo, não é tão diferente daquela de nossa equação (2). Também observe que só conseguimos obter os parâmetros estruturais porque estimamos a sua forma reduzida (em português: estimamos a forma reduzida da função consumo algebricamente obtida a partir das duas equações estruturais deste modelo e, com os parâmetros estimados desta forma, conseguimos obter os parâmetros da forma estrutural).

Aliás, um modelo estrutural bem maior e mais complicado, para a economia japonesa é este.

Bom, mas o que dizer de nossos resultados? Longe de mim reinvindicar algo além de um exercício para discussão de econometria aplicada. Mas considere este texto para discussão Carroll (2000), em sua versão preliminar, no mesmo ano, no NBER. Digo, considere o resumo.

‘Risky Habits’ and the Marginal Propensity to Consume Out of Permanent Income, or, How Much Would a Permanent Tax Cut Boost Japanese Consumption?
Christopher D. Carroll
NBER Working Paper No. 7839
Issued in August 2000
NBER Program(s): ME PE
Papers in variety of disparate literatures have recently suggested that habit formation in consumption may explain several empirical puzzles, ranging from the level and cyclical variability of the equity premium (Abel (1990,1999); Constantinides (1990); Jermann (1998); Campbell and Cochrane (1999)) to the excess smoothness’ of aggregate consumption (Fuhrer (2000)) to the apparent fact that increases in economic growth cause subsequent increases in aggregate saving rates (Carroll and Weil (1994); Bosworth (1993); Attanasio, Picci, and Scorcu (2000); Rodrik (1999); Loayza, Schmidt-Hebbel, and Serv‚n (2000)). This paper examines an implication of these models that has mostly been overlooked: Habits strong enough to solve these puzzles imply an immediate marginal propensity to consume out of permanent shocks of much less than one. When the model is calibrated to roughly match the rise in the Japanese saving rate over the postwar period, it implies that the immediate MPC out of permanent tax cuts may be as low as 30 percent, suggesting that calls for permanent income tax cut as a quick means of stimulating aggregate demand in Japan may be misguided.

Ou seja, o autor diz que a propensão marginal a consumir em modelos com “hábito”, neste caso, pode ser bem baixa e ainda faz uma ligação muito simples e interessante com o que falo sobre mudanças permanentes e temporárias nas aulas de Análise Macroeconômica IV.

Coincidência ou não, nosso exercício também nos deu uma propensão marginal a consumir baixa. Legal, não? Torço sempre para que estas coisas não sejam coincidências…

Tá, e agora?

Agora o negócio é trabalhar. Bom, para quem é novo por aqui, eu usei o R, meu programa econométrico favorito (inclusive, usei o pacote do R, stargazer, que gera as tabelas automaticamente, o que me poupa um bocado de trabalho). Caso você queira uma sugestão, eu lhe sugiro o R.

A idéia deste post gigante surgiu, simplesmente, do desejo de gerar um material didático que fosse de fácil acesso para aqueles que já ouviram falar de Econometria (minha definição de “ouviram falar”, claro, é bem específica…). A discussão do consumo unifica três das quatro disciplinas que tenho que lecionar na faculdade. Não é tão ruim quando você pensa que está ao lado de gente como Milton Friedman ou Robert Hall, ensinando suas teorias, dando notícia das mesmas ou, sei lá, simplesmente ilustrando alguns modelos.

Como sempre, deixamos de lado muita coisa porque senão teríamos um post gigante sobre o tema. Ah, o leitor pode ver que tenho tratado do tema “economia japonesa” com alguma frequência por aqui (por um motivo muito óbvio, creio).

No final disto tudo, talvez a melhor coisa seja pensar no Japão com uma bela imagem.

Totoro

Até a próxima!

Bibliografia

Carroll, Christopher D. “Risks Habits’ And The Marginal Propensity To Consume Out Of Permanent Income, Or, How Much Would A Permanent Tax Cut Boost Japanese Consumption?,” International Economic Journal, 2000, v14(4,Winter), 1-40

Charemza, W.W. & Deadman, D.F. New Directions in Econometric Practice, Edward Elgar, 1997 (2nd edition).

Uncategorized

E a inflação, heim?

Pois é. O IBGE nos deu a má notícia. O IPCA contém vários sub-índices (preços), mas o que faz com que os preços subam não é…o próprio preço. Então, fuja de análises erradas que dizem que o IPCA subiu porque o preço do alimento subiu. Digo, o erro está no “porque”. Claro que se 2 + 2 = 4 e se eu digo que agora é 3 + 2, não podemos ter 4. Mas o ‘3’ só apareceu porque eu o coloquei lá.

Então, vamos separar as coisas: não vou falar do que causou o aumento no IPCA, mas sim, tão somente, do próprio. Vejamos como vem evoluindo a variação do IPCA nos anos recentes (Jan/99 – Jan-14).

O monstro está solto?

As variações no IPCA estão no gráfico abaixo (note que, embora o nome do eixo vertical seja “ipca”, o que temos são as variações mensais do IPCA). Os dados está em percentual e, portanto, a má notícia que estamos com 0.55% no último resultado.

ipca4

 

O monstro está solto? Parece que já tivemos melhores dias ali nos idos de 2006, 2007. Mas o problema da inflação não foi resolvido. Lembre-se que o governo deixou o monstro bater nas grades (teto da meta) e, no acumulado, ficamos em quase 6% (ou algo assim) no ano passado.

 

Entendendo o monstro com mais detalhes

Bem, uma forma diferente de observar este mesmo dado é olhar sua propriedade temporal básica: a sua correlação com ele mesmo em diferentes períodos de tempo, portanto, sua autocorrelação. O gráfico abaixo ilustra a autocorrelação acumulada entre variações do IPCA conforme estas variações estão distantes no tempo. Antes de dar os números, veja, se tenho 15 no eixo horizontal, então estou dizendo que existe uma distância de 15 meses. Aí olho para a barra vertical, que ilustra o valor da autocorrelação da variação do IPCA com ele mesmo 15 meses distante. Sacou? Vamos lá.

Por exemplo, no gráfico, com um mês de diferença, há uma fortíssima influência do passado sobre o presente (cerca de 60%). Quando olhamos a influência conjunta de dois meses, a influência cai para algo um pouco abaixo de 40%. E assim por diante. Natural, não? Você esperaria, digamos, que a inflação deste mês fosse fortemente influenciada pela do mês passado, não? Claro. Mas também é verdade que a inflação de dois meses atrás deve influenciar a deste mês, mas menos. Na soma, por assim dizer, a influência dos dois meses passados só é forte porque a do mês imediatamente anterior é muito forte. 

Pensando assim, você percebe que, no gráfico abaixo, a inflação tem aí um movimento quadrimensal forte (as linhas azuis são os intervalos de confiança…logo, barras que estejam entre as linhas nos dizem que os efeitos são estatisticamente iguais a zero) e, note lá na frente, o 12o mês também é importante. Isto significa que existe algum efeito de doze em doze meses, cíclico (sazonal) na inflação. 

Razoável, não? Geralmente, espera-se que, em qualquer ano, a inflação de um mês seja fortemente influenciada pela do mês anterior e, claro, muito menos pela de 333 meses atrás. Isto nos ajuda a entender porque este gráfico aí é razoável, mesmo que eu não entre em detalhes técnicos.

ipca2

 

Agora, no próximo gráfico, em contraste ao primeiro, temos o efeito isolado da distância entre meses, a chamada autocorrelação parcial.

Então, a forte influência do mês passado está aí, firme e forte. Mas a influência isolada da inflação de dois meses anteriores sobre o mês seguinte é praticamente zero (as linhas pontilhadas azuis são os intervalos de confiança, lembra?). Isto é exatamente o que tínhamos no gráfico anterior. Por que? Porque lá, acumulávamos o efeito das duas primeiras distâncias. Então, mesmo com o segundo efeito sendo praticamente zero, a força, por assim dizer, descomunal, da primeira, na soma, prevalecia.

Repare que este gráfico nos mostra um possível segundo ciclo, lá na distância (defasagem) de número oito. Vale dizer, pode ser que exista um ciclo na inflação de oito meses. Ou talvez seja uma questão trimestral, já que, em doze (na verdade, treze) existe outro indício de influência defasada forte. Algo para se pensar, eu sei.

ipca3

Para identificar isto melhor, é necessário explicitar os processos de autocorrelação teóricos que podem gerar gráficos simulados de comportamento similar ao do IPCA. Ou você pode tentar estimar um modelo autoregressivo (na verdade, vários).  Mas vamos em frente.

O monstro do eterno retorno ou “porque minha mulher odeia os finais de ano na feira”

No gráfico seguinte, percebemos a existência de sazonalidade. Repare que cada ponto no eixo horizontal é um mês. Sobre o mesmo, as observações deste mesmo mês ao longo da amostra e a barra horizontal é a média. 

Bem, se não houvesse efeito sazonal, eu esperaria que a média de Janeiro fosse igual à de Fevereiro que fosse igual….etc. Mas as médias são diferentes. Ok, eu não fiz um teste de médias, mas é fácil fazer isto e eu garanto para você (tenho bons motivos, acredite) que exite efeito sazonal. Ah sim, donas-de-casa geralmente odeiam o final e o começo do ano. Ou deveriam. Veja só as médias (e repare em Julho).

 

ipca1

Pensando bem, dá quase para ver um sorriso diabólico juntando estas barrinhas…

O monstro antecipado

Muito bem. Um modelo estimado me diz que a previsão para Fev/2014 é de que a inflação fique em 0.51%, mas o intervalo de confiança ainda não é o que eu gostaria de obter. O ajuste do modelo (um modelo ARIMA, destes que ensino em Econometria) pode ser ilustrado facilmente. Eis o gráfico.

ajuste_ipca

 

Nada mau, eu sei. Mas ocorre que este tipo de modelo é bem a-teórico, no sentido de que você pode se sair bem apenas com a Estatística para fazer a previsão. Mesmo que não continuemos nesta linha de argumentação, existem os modelos da família GARCH, os ARFIMA, os modelos de alisamento exponencial, etc. Ou seja, mesmo que ignoremos o problema da pouca teoria econômica na estimação de modelos como este, ainda assim existe uma variedade imensa de modelos que podem ser usados para prever o IPCA.

Quanto à teoria, claro, eu imagino que, como eu, você também ache que a inflação é um fenômeno monetário (ok, eu também gosto de ciclos reais e também entendo o problema da política fiscal corroendo a saúde da moeda). Então, em um outro contexto, eu gostaria de ver uma previsão do IPCA que levasse em conta esta relação sistêmica entre as variáveis. Bom, esta fica para depois mas eu te garanto que você que quem conhece Economia tem bons motivos para ficar pensando nisto pelo resto do Sábado.

Previsão do IPCA

Os alunos do Nepom, mais recentemente, têm se dedicado a tentar prever o comportamento do IPCA. Infelizmente, dada nossa rotatividade de membros encarregados da Econometria, este é um conhecimento que se desenvolve pouco. Um ou outro busca avançar mais o modelo ou testar especificações alternativas. Falta um pouco mais de análise, creio, paciência, enfim, investimento, no bom e velho tempo de reflexão sobre os dados. Eu recomendo chá verde com doce de feijão ao lado de uma janela aberta com uma bela paisagem (serve a bandeira do time na janela do vizinho fanático, em casos menos felizes…). Os familiares reclamam, eu sei, querem que você participe do almoço e tal. Mas estes momentos de paz e reflexão nos ajudam a pensar e modelar não apenas o IPCA, mas outras séries econômicas.

Ou talvez seja só um chá verde o suficiente para despertar seu lado econometrista. Vai saber.

 

Uncategorized

Previsões e modelos de previsão

Minha previsão é a do CPTEC/INPE e ela me indica que não chove hoje. Pior para os burocratas reguladores (e, claro, dos ministérios, já que o ex-presidente dizia que o modelo regulador não era tão bom quanto as estatais…ah o Brasil de Raymundo Faoro…) do setor.

Mas, falando em previsões, eis aqui um curso que eu gostaria de assistir. Claro, a área de séries de tempo é cheia de modelos interessantes e, às vezes, algo obscuros (nada que um Yule-Walker não ajude a resolver).

p.s. Caso você seja um entusiasta de bases de dados, veja a diversidade que existe lá no START, sobre terrorismo no mundo.

Uncategorized

Momento R do Dia

O momento R do dia é uma dica de como simular SARIMA no R. O prof. Boshnakov fez uma pequena rotina que se encontra aqui. Os usuários do R sabem que uma das grandes vantagens deste programa é poder usar rotinas que estão online, sem a necessidade de baixá-las mas, se você for neurótico como eu sou, vai fazer um copy-and-paste e salvar o script.

Uncategorized

Vem novo “apagão” por aí?

Veja o resumo desta dissertação:

“PROJEÇÕES PARA A DEMANDA POR ENERGIA ELÉTRICA NO BRASIL, 2006-2015”
SIDIMAR QUEZADA LEITE

RESUMO

Projetamos a demanda por energia elétrica para o Brasil para o período de 2006 a 2015. As projeções são geradas de duas formas. Primeiro, estima-se a demanda por energia elétrica com base num modelo de correção de erros. Utilizando este mesmo modelo foram calculadas as elasticidades renda e preço da demanda por energia elétrica. Segundo, estimamos a demanda por energia elétrica com base num modelo ARIMA. Nossas estimativas sugerem que a energia elétrica não será um gargalo para o crescimento da economia brasileira para este período da análise.

Comentários? Eu faço um único: qualquer aluno de Econometria II esperto dará uma boa olhada nesta dissertação porque o autor é bem didático em suas explicações. Ah sim, sobre o “apagão”, o problema é localizado…em 2009. Entretanto, com os possíveis impactos de uma crise mundial, talvez estejamos a salvo.

A prova do modelo do autor é: será que ele apostaria sua grana em sua previsão? Esta, para mim, é a melhor prova de que um modelo funciona. Mas deixe de lado este meu critério rigoroso e aprecie o trabalho. 

O bacana, acho, é o aspecto prático da dissertação: a pergunta é relevante para a economia brasileira e o autor fez sua contribuição. Se ele está correto, claro, várias implicações de política econômica surgem e podemos compará-las com o que tem sido feito. 

Eis aí a essência da prática econômica.