Momento R do Dia – Gabriel Sallum faz um estudo sobre Aecio e Dilma no Twitter

Hoje, leitores, temos aqui um outro autor convidado, meu aluno Gabriel Sallum. Ele me relatou ter feito uma aplicação diferente no R e, gastou um tempo de seu domingo fazendo isto. Ora, qualquer um que invista seu tempo de um domingo para trabalhar com o R é bem-vindo por aqui, principalmente se o tema não tiver nada a ver com a matéria (afinal, gente, é final de semana, né?) e for interessante.

Ao ver o que o Gabriel tinha feito, percebi que valia a pena divulgar seu trabalho. Então, com vocês, o texto dele.

E aí, pessoal.

Ao ver o seguinte link: https://sites.google.com/site/miningtwitter/questions/talking-about/wordclouds/comparison-cloud , que sinaliza as palavras mais frequentes escritas no twitter de empresas de telecomunicação dos EUA, decidi replicar este script para os candidatos à presidência em 2014.
Portanto, coletei os últimos 2000 tweets(a partir de hoje) de Aécio Neves e Dilma e os resultados são estes:

dilmaXaecio

Essa nuvem mostra as palavras mais frequentes nos tweets de Dilma e Aécio separadamente(palavras maiores são mais frequentes).

dilmaEaecio

E essa mostra a interseção de palavras mais frequentes escritas por ambos.

Abaixo, segue o meu script com a explicação de todos os passos.

#O primeiro passo é ter acesso ao API do twitter, para isso é necessário acessar o https://apps.twitter.com/ e criar um aplicativo, para obter as chaves para ter acesso à base de dados do twitter
#Depois, carregar o pacote twitteR
install.packages("twitteR")
require(twitteR)


#Nos passos seguintes, você utiliza suas chaves de acesso para ser apto à usar os dados do twitter(omiti as minhas aqui)
consumer_key <- "XXXXXXXXXXXXXXXXXXXX"
consumer_secret <- "XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX"
access_token <- "XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX"
access_secret <- "XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX"
setup_twitter_oauth(consumer_key,consumer_secret, access_token, access_secret)

#Aqui, você obtém os tweets de um usuário que você deseja, escolhi 2000 tweets de Aécio e Dilma

aecio <- userTimeline("aecioneves", n=2000, includeRts=TRUE,excludeReplies=FALSE)
dilma <- userTimeline("dilmabr", n=2000, includeRts=TRUE,excludeReplies=FALSE )

#Neste passo, selecionei apenas o conteúdo do tweet.
aecin <- sapply(aecio,function(x) x$getText())
dilminha <- sapply(dilma,function(x) x$getText())

#Limpando os dados:
clean.text = function(x)
{
  #E aqui, removi dos tweets pontuações, links, números, etc. Para ter somente palavras que façam sentido de ser analisadas.
  x = gsub("rt", " ", x)
  x = gsub("@\\w+", " ", x)
  x = gsub("[[:punct:]]", " ", x)
  x = gsub("[[:digit:]]", " ", x)
  x = gsub("http\\w+", " ", x)
  x = gsub("[ |\t]{2,}", " ", x)
  x = gsub("^ ", " ", x)
  x = gsub(" $", " ", x)
  x = gsub("http", " ",x)
  return(x)
}

#Apliquei a limpeza dos dados tanto para Aécio quanto Dilma:
aeciolimpo <- clean.text(aecin)
dilmalimpa <- clean.text(dilminha)

#Esta função concatena todos os tweets em apenas um vetor.  
psdb = paste(aeciolimpo, collapse=" ")
pt = paste(dilmalimpa, collapse=" ")

#Aqui, removi as stopwords(ex: para, que, o ,a, no, em), e concatenei os dados de Dilma e Aécio em uma só Matriz
presidenciaveis = c(psdb, pt)
install.packages("tm")
require(tm)
presidenciaveis = removeWords(presidenciaveis, c(stopwords("portuguese"), "psdb", "pt"))
corpus = Corpus(VectorSource(presidenciaveis))
tdm = TermDocumentMatrix(corpus)
tdm = as.matrix(tdm)
#Neste passo, é importante ficar atento à ordem das colunas, para ser igual ao que foi feito anteriormente.
colnames(tdm) = c("AÉCIO","DILMA")

install.packages("wordcloud")
require(wordcloud)
#A função seguinte plota um gráfico em nuvem com as palavras frequentes nos tweets de Aécio e Dilma.
comparison.cloud(tdm, random.order=FALSE, colors =c("blue","red"), title.size=0.9, max.words=200)

#E esta relaciona palavras em comum escritas por ambos, palavras maiores foram escritas mais vezes por ambos.
commonality.cloud(tdm, random.order=FALSE,colors=brewer.pal(14,"Dark2"), title.size=1.5)

Os Mesmos Diálogos, quase 40 anos depois

Em 1974, em “Homem-Aranha em Cores”, da Ebal, Sam Wilson, o famoso Falcão, dialogava com sua namorada ativista:

garanhaotimido

Simpático, não? Repare que a frase dela ainda pode ser mal-interpretada porque dizer que “existe algo entre nós” pode significar tanto um problema ou a existência de algo amoroso. Mas, tudo bem, a resposta do nosso galante Sam Wilson esclarece tudo.

Em 2015, na reedição da Panini, nosso herói já fica bem mais poderoso com as mulheres sem fazer nada a mais. No mesmo diálogo:
editarÉ, Sam Wilson, a era atual te deu um upgrade no status de amante, heim? ^_^

A Microeconomia das cervejarias artesanais: a cervejaria cigana

Simples, simples, mas interessante. As mulheres que desenvolveram a Wasabiru (leia a matéria para detalhes) não tinham o capital físico, mas apenas o intelectual e a mão-de-obra. O que fizeram?

A Wasabiru foi desenvolvida sob o sistema de “cervejaria cigana”, ou seja, no caso de o cervejeiro ter a receita e a marca, mas não os meio de produção propriamente ditos. “Muitas das vezes, [os cervejeiros] operam com a capacidade ociosa de outras cervejarias para fazer o seu produto. No entanto, hoje já existem fábricas se especializando nesse mercado de produzir para outras marcas”, explica Maíra.

Fascinante? Nem tanto (se você é economista). Obviamente, o potencial da estratégia não se limita a cervejarias, como bem sabemos. Outros setores da economia também usam esta estratégia colaborativa (claro que se paga, colaborar não é sinônimo de ser escravo…). É sempre interessante, para mim, ver a famosa função de produção na prática.

Ah sim, o governo pode atrapalhar tudo isto e destruir a eficiência econômica, simplesmente criando custos para que esta transação ocorra (literalmente: custos de transação). Basta fazer o que sabe fazer de melhor no Brasil. Torcendo para que não ocorra esta desgraça (muito provável em tempos de ajuste fiscal), minha esperança mesmo é poder experimentar esta cerveja de sabor tão peculiar.

Mais uma coisa: ao visitar a página da cervejaria no livro de caras do Zuckerberg, descubro que a parceria delas diminuiu em uma sócia. Quando fabricava cerveja artesanal, tive o mesmo problema: meu sócio quis se aventurar comercialmente (ainda não o fez) e, então, eu tive que parar porque cerveja, para mim, era um hobby. De vez em quando ele me envia amostras do produto e, devo dizer, tem melhorado um bocado.

Agora, já que estou falando de cervejas, que tal a Adão Smith Beer?

p.s. Um dia destes eu coloco aqui fotos dos rótulos de cerveja que inventei na época.

Irracionalidade Racional: finalmente alguém me ouviu!

Após anos falando do tema por aqui, algo de bom tinha que acontecer. Leandro Narloch publicou um texto no qual mostra como o Chico Buarque, com suas exóticas opiniões políticas, pode ser racionalmente explicado.

Finalmente!

Momento R do Dia – Exercício do Enders, cap.6 (Cointegração)

Meu monitor, Victor, sempre me pede por exercícios para mostrar aos dois alunos que frequentam suas sessões (eventualmente, este número sobe para uns dez, mas só em época de prova).

Eis um Momento R do Dia para ele e todos os que, como ele, desejam usar o R para resolver seus problemas de aprendizado. Pegue-se o livro-texto de Walter Enders (a segunda edição), no capítulo 6, exercício 4.

Abriu o livro? Então, prepare-se pois, com este “script”, você terá o exercício mais completo que já vi para estudar um pouco de Cointegração. Claro, algumas coisas ficaram de fora, mas aí é pedir muito, né?

Pronto? Bom trabalho.

# Exemplo de Engle-Granger e Johansen (Enders, 2nd ed. p.374-5, ex.4)
# A base de dados deve ser importada de: 
# http://bcs.wiley.com/he-bcs/Books?action=resource&bcsId=1660&itemId=0471230650&resourceId=1957&chapterId=6746
# planilha: int_rates.xls (transforme para csv)
# importe como achar melhor. Abaixo como eu fiz.

enders<-read.table("C:/Users/cdshi_000/Documents/Meus Documentos/Meus Documentos/cursos/Econometria II/int_rates.csv", 
                   header=TRUE, sep=",", na.strings="NA", dec=".", strip.white=TRUE)
head(enders)
tail(enders)

library(urca)
summary(ur.df(enders$tbill, type=c("drift"), lags=12, selectlags=("Fixed")))
summary(ur.df(enders$r3, type=c("drift"), lags=12, selectlags=("Fixed")))
summary(ur.df(enders$r10, type=c("drift"), lags=12, selectlags=("Fixed")))

# vamos passar para formato ts

enders<-ts(enders, start=c(1954,7), freq=12)
plot(enders)

# por conveniencia de sintaxe, dynlm

library(dynlm)

summary(dynlm(tbill~r3+r10, data=enders))

reg1<-dynlm(tbill~r3+r10, data=enders)

# Teste de Engle-Granger sobre resíduos (tabela em Gujarati)

res<-reg1$residuals
y<-res
plot(y)

summary(dynlm(d(y)~L(y,1)+L(d(y),1)+L(d(y),2)+L(d(y),3)+L(d(y),4)+L(d(y),5)+L(d(y),6)+
                L(d(y),7)+L(d(y),8)+L(d(y),9)))

# Item c do exercicio: a idéia é alterar a variável dependente da equação.
# O autor pretende discutir...(pense enquanto relembra quando leu o exercício completo
# antes de começá-lo).

reg2<-dynlm(r10~tbill+r3, data=enders)

# Teste de Engle-Granger sobre resíduos (tabela em Gujarati)

res<-reg2$residuals
y1<-res
plot(y1)

# com 4 
summary(dynlm(d(y1)~L(y1,1)+L(d(y1),1)+L(d(y1),2)+L(d(y1),3)+L(d(y1),4)))

# com 12
summary(dynlm(d(y1)~L(y1,1)+L(d(y1),1)+L(d(y1),2)+L(d(y1),3)+L(d(y1),4)+L(d(y1),5)+L(d(y1),6)+
                L(d(y1),7)+L(d(y1),8)+L(d(y1),9)+L(d(y1),10)+L(d(y1),11)+L(d(y1),12)))

# ou (mesma coisa):

summary(dynlm(d(y1)~L(y1,1)+L(d(y1),c(1,2,3,4,5,6,7,8,9,10,11,12))))

# novamente, tabela de Gujarati. O que aconteceu entre o item b e c? Como você tiraria
# conclusões? (a caminho do método de Johansen...)

# item d
# para este item, ele deseja uma estimação do VECM, ainda sob Engle-Granger. Ele usa 
# (por que?) os resíduos encontrados no item "b". Por que?
# Basta estimar normalmente:
# vou facilitar minha vida primeiro, convertendo os nomes das séries:

head(enders)
tbill<-enders[,c(3)]
r10<-enders[,c(5)]
r3<-enders[,c(6)]


vec1<-(dynlm(d(tbill)~L(y,1)+L(d(tbill),c(1,2,3,4,5,6,7,8,9,10,11,12))+
                L(d(r3),c(1,2,3,4,5,6,7,8,9,10,11,12))+
                L(d(r10),c(1,2,3,4,5,6,7,8,9,10,11,12))))
vec2<-(dynlm(d(r3)~L(y,1)+L(d(tbill),c(1,2,3,4,5,6,7,8,9,10,11,12))+
                L(d(r3),c(1,2,3,4,5,6,7,8,9,10,11,12))+
                L(d(r10),c(1,2,3,4,5,6,7,8,9,10,11,12))))
vec3<-(dynlm(d(r10)~L(y,1)+L(d(tbill),c(1,2,3,4,5,6,7,8,9,10,11,12))+
                L(d(r3),c(1,2,3,4,5,6,7,8,9,10,11,12))+
                L(d(r10),c(1,2,3,4,5,6,7,8,9,10,11,12))))

plot(vec1$residuals)
plot(vec2$residuals)
plot(vec3$residuals)

# O correto é fazer o teste de Engle-Granger nos resíduos, como no item b. 
# Contudo, para não perdermos muito tempo (você faz isso como dever de casa), 
# vejamos os resultados dos testes de Phillips-Perron, o ADF e o KPSS.

library(forecast)

ndiffs(vec1$residuals, test=c("pp"))
ndiffs(vec2$residuals, test=c("pp"))
ndiffs(vec3$residuals, test=c("pp"))

ndiffs(vec1$residuals, test=c("kpss"))
ndiffs(vec2$residuals, test=c("kpss"))
ndiffs(vec3$residuals, test=c("kpss"))

ndiffs(vec1$residuals, test=c("adf"))
ndiffs(vec2$residuals, test=c("adf"))
ndiffs(vec3$residuals, test=c("adf"))

# Apenas em um resultado (usando o KPSS), um dos resíduos parece ser não estacionário. 

# Agora, o item "e". 

library(vars)

# preciso da matriz dos dados, não no formato de série de tempo (é, está escrito isto lá
# na ajuda)
# Não é um problema. Eis uma forma fácil: leia de novo e mude o nome.

enders_matrix<-read.table("C:/Users/cdshi_000/Documents/Meus Documentos/Meus Documentos/cursos/Econometria II/int_rates.csv", 
                   header=TRUE, sep=",", na.strings="NA", dec=".", strip.white=TRUE)

head(enders_matrix)
# Agora, vamos tirar as duas primeiras colunas. Depois,a quarta.

enders_matrix<-enders_matrix[-c(1,2,4)]

# Confira

head(enders_matrix)

# No comando do R, vamos usar 13 lags ao invés de 12, como pede Enders no enunciado.
# O motivo para isto é simples: o R já sabe que, para estimar o VECM, ele terá que descontar
# uma defasagem (pense nisto um pouco). Repare que teremos exatamente os mesmos resultados.

enders_eigen <- ca.jo(enders_matrix, ecdet = "const", type="eigen", K=13, spec="transitory")
enders_trace <- ca.jo(enders_matrix, ecdet = "const", type="trace", K=13, spec="transitory")

summary(enders_eigen)
summary(enders_trace)

# Aceitando que há uma única relação de cointegração, vamos estimar o VECM sob esta restrição.
# repare que ele já estima com 12 defasagens, como falei anteriormente.

vecm<-cajorls(enders_trace, r=1)
vecm
summary(vecm$rlm)

# Repare que a relação de cointegração é exatamente a que ele pede para checar no item f.
# subitem i: tbill = -0.379 + 1.603R3 - 0.665R10. (veja os resultados acima).
# Veja que acertou todo o exercício conferindo os coeficientes de ajustamento 
# (subitem ii do item f).

# Pronto, você terminou o exercício.

# Caso queira fazer testes de diagnóstico, lembre-se de converter o vec para var primeiro.
# Caso queira ver as funções de resposta ao impulso e/ou a decomposição de variância,
# verifique os comandos adequados no pacote vars.
# dica: http://cran.r-project.org/web/packages/vars/vars.pdf


varzinho<-vec2var(enders_eigen, r=1)

arch.test(varzinho)
normality.test(varzinho)
serial.test(varzinho)

irf(varzinho, impulse = "tbill", response = c("tbill", "r3", "r10"), boot =
      FALSE)

# ou, visualizando...

irf_tbill<-irf(varzinho, impulse = "tbill", response = c("tbill", "r3", "r10"), boot =
      TRUE)

plot(irf_tbill)

# Obviamente, você pode mudar os impulsos e pedir as respostas conforme o que deseja analisar.

# Decompos. de Var.

fevd(varzinho, n.ahead=4)

Pessoas não sabem o quão desigual é a sociedade…

…mas imaginam, obviamente, que a desigualdade ocorre em algum grau. Assim, no mínimo, as teorias sobre desigualdade deveriam levar em conta este aspecto microeconômico.

Um ótimo artigo e um ótimo resumo do Caplan sobre o mesmo.

Um pouco mais sobre John Nash

O texto abaixo é do Cristiano Costa (vocês devem se lembrar do ótimo blog dele). Ele teve a idéia para um texto e, claro, quem melhor do que ele para escrever o próprio? 

Recentemente lamentamos o trágico falecimento de John Nash, matemático que deu uma fantástica contribuição às ciências sociais aplicadas por meio do desenvolvimento do conceito de equilíbrio em jogos simultâneos.

Um post bem legal sobre o surgimento da teoria dos jogos, sugerido pelo Drunkeynesian em seu Twitter (@drunkeynesian), é este aqui do blog A Fine Theory:

https://afinetheorem.wordpress.com/2015/05/24/the-economics-of-john-nash/

Nele estão os links para os dois papers famosos do Nash. Algumas coisas merecem destaque no post:

1) No primeiro paper do Nash (aquele de 5 parágrafos), ele agradece ao David Gale (matemático e economista) pela sugestão de uso do Teorema do Ponto Fixo de Kakutani. Ou seja, a contribuição do Gale foi substancial.

2) O Gale também contribuiu, indiretamente, para o Nobel do Shapley. Em particular, ele é citado cinco vezes aqui na fala autobiográfica do Shapley quando do recebimento do prêmio: http://www.nobelprize.org/nobel_prizes/economic-sciences/laureates/2012/shapley-bio.html

Obs 1: O Gale era fantástico, mas faleceu antes do Nobel do Shapley. Não sei se teria anho junto. Mas de qualquer forma, contribui para o trabalho de dois premiados.

Obs 2: Ele não tem nada a ver com o filme The Life of David Gale (até onde eu sei).

3) O Nash também agradece ao Shapley no seu segundo artigo (publicado no Annals of Mathematics). O Shapley teria ajudado o Nash a resolver o exemplo do jogo de poker citado no paper. Mais do que isso, nenhuma das aplicações sugeridas pelo Nash na seção Applications do paper é na área econômica!

4) O Zermelo já tinha provado antes que jogos mais simples tinham estratégia ótima. Mas o paper era em alemão e provavelmente só veio ficar mais famoso depois.

http://www.labri.fr/perso/gimbert/enseignement/lc/zermelo.pdf

5) Uma questão importante para entender o desenvolvimento do conceito do Nash é que talvez quem tenha sugerido o conceito de estratégia mista pela primeira vez tenha sido na verdade o Borel! Mas o paper estava em francês!

Ver aqui: http://www.gametheory.net/dictionary/People/EmileBorel.html

Para se ter uma ideia, a prova do teorema de minmax do Von Neumann and Morgenstern (1944) foi na verdade feita por um aluno do Borel em 1938.

http://science.jrank.org/pages/9420/Game-Theory-Origins-Game-Theory.html

6) Pra finalizar, no segundo paper o Nash também agradece ao Tucker e ao Kuhn. Acho que vocês sabem quem são esses dois, né? Dica: invertam a ordem dos nomes e leia em voz alta: “Condições de {complete aqui}”.

Obs 3: Essas condições agora tem um nome a mais na frente. Vejam aqui: http://en.wikipedia.org/wiki/Karush%E2%80%93Kuhn%E2%80%93Tucker_conditions

Obs 4: Em 1980 o Kuhn, o Tucker e (adivinhem quem? Isso mesmo) o Gale, ganharam o John von Neumann Theory Prize, prêmio dado aos indivíduos que mais contribuíram para a pesquisa operacional ou managerial sciences. Esse prêmio é considerado o Nobel da área. E, é claro, o Shapley também ganhou, em 1981. O Nash, pois é, nunca ganhou! Mas acho que não era bem a área dele.

Ou seja, de certo modo, a grande contribuição de John Nash foi residiu na sua capacidade absurda de reunir ideias fantásticas de artigos e um conjunto de pessoas ao seu redor, transformar em apenas dois artigos (um deles com 5 parágrafos) e com isso entrar para história!

Realmente uma mente privilegiada!

Economia da Educação: e o ensino técnico?

Mercado de trabalho e ensino técnico: quais são as evidências para o Brasil? Três autores exploram isto em um texto interessante, aqui. Eis o resumo:

Este trabalho utiliza uma base de dados ainda não explorada na literatura de economia da educação para investigar o impacto do ensino técnico sobre variáveis de mercado de trabalho. Os dados, estruturadas em painel, permitem utilizar diferenças em diferenças com efeito fixo do indivíduo aliado com variáveis instrumentais para lidar com os tradicionais problemas de endogeneidade nesse tipo de trabalho. As Estimações são realizadas para diversas subamostras para captar eventuais efeitos heterogêneos. Os resultados apontam que há impacto, notadamente sobre ocupação (principalmente entre as mulheres) e salários (com maior intensidade entre os homens).

Aí está, pessoal, mais um pouco de econometria aplicada.

A taxa de câmbio mais sem sal do mundo – continuação

Pobre Lucas.

poorlucas

Resolvi checar a cointegração entre duas taxas de câmbio pensando no meu amigo de nome hipotético (“Lucas”) que deseja vender reais, comprar dólares, e depois trocar por dólares canadenses.

Claro que uma uma forma de ver isto é checar se existe uma relação de longo prazo entre as duas taxas de câmbio. Iria ser o começo de uma lucrativa relação (imaginei eu, ingênuo que sou…) entre o hipotético Lucas e o consultor malvado (eu).

Entretanto, as séries não cointegraram. Há esperança? ^_^

Bem, a esperança, como sabemos, morre, mas é a última (e também pode ser condicionada a uma outra variável…) e há muitos problemas a serem tratados aí, mas não deixa de ser engraçado o resultado. Toda vez que tento ajudar meu amigo hipotético, algo inesperado acontece.

Eis as malvadas e o leitor que já nos acompanha notou que usei um outro pacote para o R, o egcm. Já falei dele antes aqui (procure nos posts antigos).

cambiobloglucas1 cambiobloglucas2

A taxa de câmbio mais sem sal do mundo

Qual é? Claro, a do dólar canadense em relação ao dólar dos EUA. Recentemente, um amigo, vamos chamá-lo de Lucas para preservá-lo, perguntou-me sobre o que eu achava desta série de tempo. Tive que lhe dizer: nunca vi mais gorda.

Mas eis que a curiosidade bateu. Por meio do R, consegui baixar dados diários (no limite de cinco anos) da taxa e fiz uns testes básicos para, claro, verificar que a série é, essencialmente, imprevisível (usei a escala logaritmica para fazer a rápida checagem do número de raízes unitárias…o leitor mais estudioso entenderá o porquê).

Eis os comandos.

library("forecast")
library("quantmod")
getFX("CAD/USD", from="2010-08-01")
par(mfrow=c(2,1))
plot(CADUSD)
ndiffs(log(CADUSD), test=c("kpss"))
plot(diff(log(CADUSD)))

Faça o exercício, leitor: replique isto em casa.

lucascambio

O teste de raiz unitária no logaritmo da série parece indicar que a mesma seja um passeio aletório em torno de uma tendência determinista (o drift foi fracamente significativo, em termos estatísticos).

O que será que Lucas deveria fazer diante disto? Comprar? Vender? Tem como prever a taxa de câmbio? Pergunte ao seu livro de Econometria, claro!

Claro, você pode se divertir mais pesquisando a relação entre estas duas moedas. Uma boa dica é brincar com os modelos básicos de séries univariadas como os modelos ARIMA. Outra, claro, é partir para estratégias multivariadas.

Uniões monetárias mudam a dinâmica da inflação de seus países-membros?

Os autores deste ótimo texto iniciam seu estudo assim:

Since the beginning of the European Union (EU), the topic of a common currency was a controversial issue. Although the Economic and Monetary Union (EMU) is now a fact, the discussion about the economic effects of the euro is far from being settled. The controversial topics range from the question of whether or not the eurozone is indeed an optimal currency area (as developed in Mundell 1961), all the way to the very survival of the euro in light of the budgetary problems of some of its member states. The effects of monetary unions on a number of macroeconomic indicators, with inflation being of increased importance, is at the center of an ongoing debate. This concerns the issue of short-run and steady-state inflation uncertainty – in relation to inflation expectations – as dealt with in Caporale and Kontonikas (2009), or the degree of similarity of short-run dynamic properties of the inflation rates in EU countries, which is the topic of the investigation by Palomba, Sarno, and Zazzaro (2009). Throughout the literature, there is still a considerable degree of uncertainty as to what extent the introduction of the euro, or monetary unions in general, affects the inflation rate.

Ótimo, não? Então, aparentemente, a dinâmica inflacionária pode mudar quando um país resolve fazer parte de uma união monetária. Obviamente, é uma questão empírica. Não tem jeito.

O resultado parece reforçar a evidência de que a união monetária gera um ganho social com a queda da inflação. Mas vale a pena dar uma lida no restante do artigo para entender melhor o que os autores encontraram.

Claudia Goldin: uma bela entrevista

The income effect and the substitution effect come from a set of preferences. If individual families have more income in a period when there are various constraints on women’s work, they’re going to purchase the leisure and consumption time of the women in the family, and the income effect will be higher. But if well-paying jobs with lower hours and better working conditions open up, then the income effect will decrease and the substitution effect will increase and both will serve to move women into the labor force.

Preciso dizer mais? Mulheres inteligentes não criam espantalhos (como dizer que a decomposição de Oaxaca-Blinder é “machista”). Elas fazem como Claudia Goldin.

Mais armas…menos crimes? Não necessariamente ou “novo artigo publicado”

Pery acaba de me dar a notícia: nosso artigo acaba de ser publicado. O tema?

Mais Armas, Menos Crimes? Uma Análise Econométrica para o Estado de Minas Gerais
Lucas de Lima Horta Abras, Ari Francisco de Araujo Junior, Cláudio Djissey Shikida, Pery Francisco Assis Shikida

Resumo

Este trabalho busca encontrar indícios de uma possível relação entre o número de armas de fogo em circulação e o número de crimes para o estado de Minas Gerais. Os dados foram extraídos do Datagerais e do Sistema de Informação sobre Mortalidade, e a metodologia proposta é de dados em painel. Os resultados encontrados indicam haver uma relação explicativa entre uma redução na difusão de armas e uma redução nos crimes violentos contra a pessoa e nos homicídios perpetrados com armas de fogo. Com relação aos crimes violentos contra o patrimônio, a relação encontrada foi oposta, em que menos armas estariam causando mais destes crimes. No que tange aos crimes de menor potencial ofensivo, os resultados encontrados foram não estatisticamente significativos para a difusão de armas, mostrando que esta não parece explicar variações daqueles.

Gostou? Tema quente, não?

Conhecimento não é compreensão

Uma dica do Ronald Hillbrecht que mostra que este papo de “eu sei a matéria” não é, mesmo, sinônimo de “eu entendi a matéria”. Não, não você não vai assistir um vídeo chato sobre sala de aula e professores. Prepare-se para entender o que é um viés de conhecimento e também prepare-se, principalmente, para entender porque um jovem que não estuda realmente joga fora uma época importante de sua vida pois será muito mais difícil aprender mais tarde.

Medalha, medalha, medalha: a economia dos determinantes do sucesso em jogos olímpicos

dastardly2Economia dos Esportes (Sportonomics) é uma área pouco conhecida no país do futebol (se bem que, há alguns anos, um livro chamado Soccernomics fez algum sucesso entre alguns amigos meus, creio).

Recentemente, Nolan & Stahler (2015) resolveram investigar o tema do desempenho dos países em jogos olímpicos. Não que isso seja uma novidade em economia, já que as Olimpíadas, como mega-evento, tem toda uma área de pesquisa dedicada a ela (o Felipe Garcia do PPGOM-UFPel pode dizer mais sobre isto do que eu). De qualquer forma, jogos olímpicos já têm dados tabulados desde a primeira metado do século XX, pelo menos.

Uma pergunta que se pode fazer é: será que os determinantes do sucesso de um país – em número de medalhas – tem sido o mesmo ao longo dos anos? Os autores postulam um modelo ad hoc para o que seria uma função de produção de sucesso em jogos olímpicos (cuja pista está aí embaixo).

medalhamedalha

Certamente há vários fatores que ajudam a determinar o sucesso do país no seu desempenho nestes jogos, mas Nolan & Stahler (2015) encontram que:

In line with other studies, we fi nd that determinants such as income, country size, status as a current host, and inclusion in the communist bloc have generally been historically signifi cant for both female and male success. But a clear narrative thread is also couched in the pluralization of Olympic competition throughout the postwar period. At the Winter Games, which are not drastically different from the 1960s in terms of their geographical makeup, success is still largely associated with being from a rich, large country with a snowy climate. In contrast, the Summer Games, where geographic pluralization has been much more comprehensive, exhibit more subtle determinants of success reflective of their diversity. Rather than per capita income, education is a much more robust positive determinant of medal winnings, and this appears to have been far more important for women than men. Moreover, we uncover evidence that the estimated coefficients for the Summer Games have changed over time—specifically even these robust correlates are waning in their influence and as this occurs, smaller, poorer, even possibly less educated countries face fewer barriers to achieving Olympic glory. [Nolan & Stahler (2015), p.5] (clique no trecho para ler todo o texto)

Em outras palavras, o capital humano é importante (e seu efeito é distinto para homens e mulheres), além do fato de que a combinação de fatores parece estar mudando ao longo dos anos, o que faz todo sentido se pensarmos nas mudanças tecnológicas pelos quais passaram todas as economias participantes destes jogos.

O artigo é um bom exemplo para se discutir em sala de aula em um curso de Econometria já que tem OLS, Tobit (com efeitos fixos e aleatórios), regressão binomial negativa e, claro, esportes. Claro, tem que ter aluno interessado em estudar os modelos analisados e, sim, seria legal se os dados estivessem publicamente disponíveis, mas aí já estamos viajando na batatinha pois nem sempre os dados estão dando sopa por aí…

p.s. Sim, uma coisa legal seria ver os determinantes do desempenho individual, mas aí seria mais trabalhoso porque cada modalidade esportiva exige qualificações distintas. Obviamente, gente que entende instruções básicas e instrutores estudiosos e atualizados nas tendências científicas da área (ambos traduzem-se em…capital humano!) ajuda.

Alguns pequenos textos no outro blog

Lá no meu projeto “Nepom”, dois recentes posts que esclarecem aos alunos o lado divertido da economia (se é que algum há): o relatório do FMI e o artigo clássico do Ray Fair, o mesmo do super modelo macroeconométrico da era das equações simultâneas…

Quem veio primeiro: o orientador ou orientando?

Boa pergunta. É similar àquela de quem veio primeiro: o ovo ou a galinha que eu, Erik e Ari estudamos, para o Brasil, aqui. Ah sim, alguém fez um exercício mais completo (usarei, um dia destes, em minhas aulas, reproduzindo o clássico, aqui).

Agora, claro, vai lá buscar a base de dados de orientadores e orientandos para a gente se divertir. ^_^

Inflação e crescimento econômico: o quão ruim é a relação?

Reexamining the link between instability and growth in Latin America: A dynamic panel data estimation using k-median clusters

Cecilia Bermudez, Carlos Dabus, Germán Héctor González

Cuadernos de Economia – Latin American Journal of Economics 05/2015; 52(1):1-23.

ABSTRACT We estimate a dynamic panel data model to assess the relationship between different levels of instability—proxied by growth volatility and inflation— and growth in Latin America from 1960 to 2011. Outlying observations could be mistakenly treated as thresholds or regime switch. Hence we use k-median clustering to mitigate the outlier problem and properly identify “scenarios” of instability. Our key findings are that while high inflation is harmful, low inflation is in fact positively related to growth. Volatility is also found to be significant and negative, but with no differential effect— between low and high levels—on growth.

Note o final do artigo: inflação baixa com crescimento econômico. A despeito de ser estranho, caso o achado seja robusto a diferentes métodos de investigação, ele nos fornece uma explicação simples para o caso de amor de alguns pterodoxos com a inflação: eles acham que um pouco de febre é sempre bom para o doente. Quer dizer, eles acham que um pouco de inflação é sempre bom para a economia.

O quão ruim é? Confira na tabela 3 do artigo deles para uma idéia inicial, antes das estimações do artigo.

acoisatafeia

O artigo não é tão grande assim, mas a parte econométrica vai assustar os alunos menos familiarizados com o tema. Nada que um pouco de paciência e persistência não resolvam, claro.

Ciência e resultados que podem ser reproduzidos ou “civilização vs barbárie”

Sua empresa quer saber o que afeta a demanda pelo produto. Aí ela contrata um consultor que pega os dados e entrega um resultado que não consegue ser replicado usando todos os passos que o próprio consultor lhe fornece no relatório final.

Chato? Totalmente.

Seu aluno diz que fez uma regressão e achou um resultado interessante, mas não quer mostrar a base de dados. Aí você descobre que ela nunca existiu.

Chato? Totalmente.

Seu conhecido leu um artigo com implicações políticas importantes e pesquisadores tentam replicar o resultado usando os dados originais e descobrem que os dados originais não eram o que os autores do artigo disseram ser.

Chato? Totalmente.

Muita gente não aprecia e/ou não entende a importância de se fazer pesquisas que sejam reproduzíveis. Há alunos que me olham com uma cara de sono ou indiferença. Eles pensam que o problema é só “acadêmico” (aliás, o cara que mais separa a pesquisa acadêmica do mundo real é o aluno que não quer estudar. O segundo cara é o picareta que não quer concorrência de alto nível e inventa esta separação para proteger sua fatia de mercado…).

Os exemplos acima mostram que o problema é muito mais sério. A cultura de “feudalização” de bases de dados não sobrevive ao teste da academia. No longo prazo, a reprodução dos resultados é inevitável. Há tempos que bons journals norte-americanos exigem que a base de dados seja entregue junto com o artigo submetido. Faz todo sentido, não?