# Re: Data Paranoia – maybe justified this time?

Menzie Chinn responded to a post on Zero Hedge in which someone claimed that the september spread in the gain of full-time jobs and the loss in part-time jobs would be unusually high. Menzie responded that this would be well within the probability given the history of these time series. Thankfully he gave links to the data on the FRED database. As I was wasting the time anyway, I thought I would take a look at the data.

## [1] "LNS12600000" "LNS12500000"


So, we have a set of 549 montly data from January 1968 to September 2013. As in Menzie’s piece, i take the first difference of the logs to get monthly rates of change.

dfDL = as.data.frame(apply(df, 2, function(x)diff(log(x))))
names(dfDL) = c("FullTime", "PartTime")
summary(dfDL)

##     FullTime             PartTime
##  Min.   :-0.0211697   Min.   :-0.032792
##  1st Qu.:-0.0006873   1st Qu.:-0.005594
##  Median : 0.0013157   Median : 0.001420
##  Mean   : 0.0011179   Mean   : 0.001760
##  3rd Qu.: 0.0032261   3rd Qu.: 0.007903
##  Max.   : 0.0148232   Max.   : 0.108558


We define the september 2013 values as cutfff-points, and get the data points with an even more extreme spread between full-time and part-time.

# In case someone would try to use the code at a later time.
sep13 = which(index(LNS12500000)=="2013-09-01")-1
cutOffs = dfDL[sep13,]
lowerRight = dfDL[which(dfDL$FullTime > cutOffs$FullTime &
dfDL$PartTime< cutOffs$PartTime),]


Looking at the scatter-plot, we could expect a negative correlation between the two variables

And this is confirmed, the correlation is -0.3918705. So, on first glance it would not seem to be unlikely that there should be a large increase of full-time jobs and a large decrease in part-time jobs. In fact, it would be the expected result that, given a high value for one series, we have high value for the other series with the opposite sign.

Identifying the empirical likelyhood of the event, we see that the red dot is September 2013, blue ones are larger spreads – 5 points, which gives us a frequency for this event of 1.0928962%. Next step is to see, if the results is statistically more unlikely than what we have observed.

We assume a bivariate normal distribution with observed mean values and covariance matrix:

mu = colMeans(dfDL)
sigma = cov(dfDL)
dfSum = data.frame(Mean = mu, StDev = apply(dfDL,2,sd))
dfSum

##                 Mean       StDev
## FullTime 0.001117893 0.003495736
## PartTime 0.001760472 0.011738748


As we can see, the mean rate of the part-time series is about 80% higher than the full-time series. It also has a much larger standard deviation.

To calculate the probability of the joint event that the full-time-rate in a given month is geq 0.3702089% and that the part-time-rate in a given month is leq -1.1011538% we put the numbers into R:

probEvent = pmvnorm(upper =unlist(c(Inf,cutOffs[2])),lower =unlist(c(cutOffs[1],-Inf)),mean = mu, sigma = sigma)


And the result is 6.2379699% – or about once very 1.3359047 years, which is in the same ballpark-range as the observed frequency of 1.0928962% or once every 7.625 years.

We contrast it with the outlier on the other side of the distribution, which looks like a rebasement in Januar 1994, as we have a decrease of -2078.83973288225 in the number of full-time jobs and an increase of 2576.9469075262 in the number of part-time-jobs.

we get the following results:

whichPT = which.max(dfDL$PartTime) cutOffs2 = dfDL[whichPT,] cutOffs2  ## FullTime PartTime ## 1994-01-01 -0.02116966 0.1085579  probEvent2 = pmvnorm(lower =unlist(c(-Inf,cutOffs2[2])),upper =unlist(c(cutOffs2[1],Inf)),mean = mu, sigma = sigma)  And the result is 6.1032592 × 10-21% – which is a “not in the lifetime of the universe”-kind of likelihood. So, the answer to the leading question – is the paranoia justified this time – is no. This month’s development is not statistically unlikely, especially in contrast to a genuine man-made event. # Lesestunde 06.10.2010 Heute mal vor allem Links. Calculated Risk verlinkt zu einer Reihe von Artikeln, die die schlechten Aussichten der US-Wirtschaft betonen, oder in den Worten von Jan Hatzius, Chefvolkswirt von Goldman Sachs: We see two main scenarios for the economy over the next 6-9 months—a fairly bad one in which the economy grows at a 1½%-2% rate through the middle of next year and the unemployment rate rises moderately to 10%, and a very bad one in which the economy returns to an outright recession. There is not much probability of a significantly better outcome. Dazu auch ein Artikel von FT Alphaville. Die Stärke des Euros wird von FT Alphaville diskutiert, und welche Probleme dies besonders für die Länder an der Peripherie (Griechenland, Portugal, Irland z. B.) hat. Chris Giles beschreibt, welche Probleme und Lösungsmöglichkeiten es für die internationale Politik gibt, das schwache Wachstum zu beschleunigen. Martin Wolf diskutiert, wie man einen Abwertungskrieg mit China führen müsste. Yves Smith hat hierzu weitere Quellen. Josh Kaufman beschreibt, wie man mehrere 100.000 US-$ und 2 Jahre seines Lebens einsparen und auf einen (Harvard/Wharton/…)-MBA verzichten kann.

Modeled Behavior gibt einen Überblick über die unterschiedlichen Makro-Modelle, die theoretischer Hintergrund für die aktuelle Diskussion über die einzusetzenden Politikmaßnahmen sind. Paul Krugman hat ein paar Kommentare dazu.

Kid Dynamite hat eine Antwort auf die Frage bekommen, weshalb das US-Finanzminister jetzt seine AIG-Anteile verkauft.

Die Ratingagenturen waren eine wichtige Ursache für das Entstehen der Finanzkrise. NBER hat jetzt den Einfluss der Zunahme des Wettbewerbs auf dem Markt für Ratings untersucht und kommt zu dem Schluss, dass die Qualität mit zunehmendem Wettbewerb abgenommen hat. Wenn dies zutrifft, spricht hier vieles für die Existenz eines natürlichen Monopols – folglich sollte diese Aufgabe vom Staat übernommen werden (bzw. von einer überstaatlichen Agentur). FT Alphaville hat eine Zusammenfassung des Paper.

Stephen Cechetti, Volkwirt bei der Bank für internationalen Zahlungsausgleich (BIZ), hat in einem Vortrag den Fortschritt bei der Reform der Finanzmarktregulierung zusammengefasst.

# Tatsächliche und wahrgenommene Einkommensverteilung

In den USA wird zur Zeit darüber diskutiert, Steuererleichterungen für Haushalte über 250.00US-\$ auslaufen zu lassen. Dieser Vorschlag ist bei weitem nicht so populär in Zeiten angespannter Haushalte, wie man glauben sollte. Dies könnte unter anderem an einer deutlichen Diskrepanz zwischen der tatsächlichen Position eines Haushalts bei der Einkommensverteilung liegen und der wahrgenommenen Position, wie David Brooks in der New York Times berichtet:

The most telling polling result from the 2000 election was from a Time magazine survey that asked people if they are in the top 1 percent of earners. Nineteen percent of Americans say they are in the richest 1 percent and a further 20 percent expect to be someday. So right away you have 39 percent of Americans who thought that when Mr. Gore savaged a plan that favored the top 1 percent, he was taking a direct shot at them.

19% der Befragten glaubten also, zu den Top-1% der Einkommen zu gehören, und weitere 20% glauben, eines Tages zu dieser Gruppe zu gehören. Fast die Hälte der Amerikaner fühlen sich also von Steuererhöhungen für die Top-1%-Verdiener bedroht, was dann auch erklärt, warum die Republikaner erfolgreich gegen die Steuererhöhung für diese Gruppe opponieren kann.

# Eine kurze Geschichte der Währungskrisenliteratur

Krugman hat seinen Spickzettel für die Rede vor der American Economic Association veröffentlicht, darin beschreibt er kurz die Entwicklung der 3 Generationen von Währungskrisenmodellen, und ihren Zusammenhang mit der aktuellen Krise in den USA.