Zitat von ZettelWelchen Sinn sollte es denn machen, Werte innerhalb einer Zeitreihe anzugleichen, wo doch der Sinn der Messungen gerade ist, Veränderungen zu erfassen?
Der Sinn liegt darin, nicht Veränderung vorzutäuschen, wenn es eigentlich nur die üblichen Meßschwankungen sind.
Mal als Beispiel: Die CDU liegt bei genau 40%. Und zwar über Wochen unverändert, es ist auch Sommerpause, nichts wesentliches passiert, kein Skandal, keine Profilierung, völlige Ruhe. Und wenn man nun über diese Wochen verteilt ein Dutzend 1000er-Stichproben zieht, von verschiedenen oder dem gleichen Institut - dann würden die Werte durch normale statistische Effekte um die 40% streuen. Mal 38%, mal 41%, auch noch stärkere Abweichungen sind (selten) möglich. Wenn man das so unbereinigt veröffentlichen würde, dann würde man politische Veränderungen postulieren, die überhaupt nicht real sind.
Letzte Woche bei 42% - dann bei nur 38%: Das gäbe sofort eine große Diskussion, dabei ist gar nichts passiert.
Und deswegen müssen die Institute auch bei Umfragen mit etwas größerem Abstand eine Art gleitenden Durchschnitts anwenden, deswegen haben die veröffentlichten Zahlen nur selten größere Sprünge (und auch nur dann, wenn politisch etwas passiert ist, daß diesen Sprung erklärt).
Zitat Mir schmeckt das alles zu sehr nach Verschwörungstheorie
Ich kann nur wiederholen: Das wurde ganz seriös vorgerechnet, mit den frei verfügbaren Zeitreihen verglichen - und die verhalten sich eben nicht so, wie es ohne Glättung erklärbar wäre. Leider kann ich den Link nicht angeben, aber mir erschien das alles plausibel und die Rechenmethoden ok.
Zitat Wenn jemand behaupet, daß Forsa manipuliert, dann soll er das Institut mit den seines Erachtens manipulierten Daten konfrontieren und um eine Stellungnahme bitten.
Liebe Güte, das wäre nun etwas naiv, da eine vernünftige Antwort zu erwarten.
Schauen Sie sich doch einfach mal die Zeitreihen an. Kann es wirklich eine seriöse Erklärung geben, daß Forsa über Monate hinweg einen völlig anderen SPD-Trend sieht als alle anderen Institute? In einer für die SPD kritischen Phase? Um dann eine Erholung zu "messen", zu der es im politischen Geschehen überhaupt keine Ursache gab? Und solche Fälle sind halt einige Male aufgefallen, und wenn es divergierende Prognosen gibt, dann glaube ich halt den anderen Instituten.
Zitat von Rayson[quote="R.A."]Allerdings hätte die HRE anscheinend mehrere andere und wichtigere Banken mit in den Untergang gerissen, ...
So die Behauptung der Regierung - es gab dazu natürlich nie Fakten und Details (wären ja auch Geschäfts-Interna gewesen).
Ich habe die Lehman-Pleite etwas miterlebt. Da wurden einige Tage lang bei allen möglichen Instituten Nachtschichten eingelegt, um die Lehman-Positionen zu schließen oder weiterzureichen. Die wesentlichen Geschäftsteile sind in kurzer Frist von Barclays und Nomura übernommen worden - der wesentliche Geschäftsbetrieb lief recht bald wieder. Eine Menge Leute und Institute haben dabei Geld verloren - aber es gab keine einzige Folgepleite.
Irgendwie bin ich mißtrauisch, daß das bei HRE so viel anders verlaufen wäre.
Aber natürlich war es für die übrigen deutschen Banken schöner, vom Steuerzahler entschädigt zu werden als ihre HRE-Geschäfte als Verlust abschreiben zu müssen. Und natürlich war es für Steinbrück schöner, mit Steuergeldern den Krisenmanager zu spielen anstatt nach einer Pleite kritische Fragen zu seiner Bankenaufsicht zu beantworten. Es gibt noch ein paar Aspekte, warum die "Rettung" für diverse Akteure sehr schön war (offenbar war die letzte Pfandbriefrechtsnovellierung von rot/grün fehlerhaft, das wäre dann wohl aufgeflogen - aber das kann ich nicht beurteilen).
Mir sind jedenfalls diese vagen Begründungen der Art "irgendetwas Schreckliches wird passieren" suspekt.
man kann sich Banken als Art Versicherung vorstellen. Kunden wollen Bankeinlagen, die kurzfristig verfügbar sind, falls Bedarf besteht. Etwa weil das Auto gerade repariert werden muss, der Kühlschrank kaputt geht oder ein sonstiger "Liquiditätsshock" vorliegt. Oder, im Falle eines Unternehmens, eine Maschine defekt geht, eine Gewinnausschüttung ansteht, etc. Da aber nicht jeder Kunde das Geld morgen vom Konto abhebt, kann die Bank einen Teil davon zinsbringend längerfristig verleihen. Das ist gut, denn dadurch bleibt das Geld im Umlauf und Kunden erhalten Zinsen aufs Tagesgeldkonto. Ich sehe da prinzipiell nichts Unseriöses, das Risiko ist durch das Gesetz der großen Zahl gebannt.
Nun gibt es - und hier fängt es an problematisch zu werden - eine Weitereintwicklung dieser Fristentransformation. Man kauft wenige, vielleicht nur ein, längerfristiges Wertpapier, das gut gerated ist und finanziert den Ankauf kurzfristig. Der Theorie nach ist das Risiko beschränkt, weil man just in dem Moment, in dem die Insolvenz droht, das längerfristige Wertpapier verkaufen könne. (Das Risikomanagement von Basel II besteht aus diesem Ansatz, der Risikoplanungshorizont ist da auf 10 Tage angelegt). Das aber impliziert eine unendliche Liquidität des Finanzmarktes (was passiert, wenn alle verkaufen?). Man fühlt sich sicher, weil man die Position auflösen kann. Damit aber vertraut man auf einen anderen, der einen notfalls die Papiere abkauft. Darin besteht das Schneeballsystem.
Ich weiss immer noch nicht, ob ich das gut oder schlecht finden soll (es gibt auch eine Menge an Vorteilen, es ist zB gut, wenn kleine Einheiten ebenfalls Fristentransformation betreiben können - und nicht nur große Banken). Vom Bankensystem und der Bankenaufsicht ist es jedenfalls gewollt. Da ist nichts Illegales und ncihts Verwerfliches dran.
Zitat von dirkDas aber impliziert eine unendliche Liquidität des Finanzmarktes (was passiert, wenn alle verkaufen?). Man fühlt sich sicher, weil man die Position auflösen kann. Damit aber vertraut man auf einen anderen, der einen notfalls die Papiere abkauft. Darin besteht das Schneeballsystem.
Richtig!
Das wurde bei econtalk mal sehr gut dargestellt - es ist ein Problem, wenn zu viele Marktteilnehmer dieselbe Risikostrategie verwenden.
Genau hier wäre eigentlich die Bankenaufsicht gefragt (und das wäre eigentlich ihr einziger Daseinszweck abseits des reinen Verbraucherschutzes). Das ist die einzige Instanz, die die Risikostrategien aller Marktteilnehmer kennt und sagen könnte: Die Strategie ist per se in Ordnung, aber es machen zu viele und deswegen kann sie im Ernstfall nicht funktionieren.
Aber das liegt halt außerhalb des geistigen Horizonts einer staatlichen Behörde. Die sammeln die ganzen Berichte ein, prüfen sie auf Formalia und heften sie ab.
Zitat von ZettelWelchen Sinn sollte es denn machen, Werte innerhalb einer Zeitreihe anzugleichen, wo doch der Sinn der Messungen gerade ist, Veränderungen zu erfassen?
Der Sinn liegt darin, nicht Veränderung vorzutäuschen, wenn es eigentlich nur die üblichen Meßschwankungen sind. Mal als Beispiel: Die CDU liegt bei genau 40%. Und zwar über Wochen unverändert, es ist auch Sommerpause, nichts wesentliches passiert, kein Skandal, keine Profilierung, völlige Ruhe. Und wenn man nun über diese Wochen verteilt ein Dutzend 1000er-Stichproben zieht, von verschiedenen oder dem gleichen Institut - dann würden die Werte durch normale statistische Effekte um die 40% streuen. Mal 38%, mal 41%, auch noch stärkere Abweichungen sind (selten) möglich.
Ja, so ist es. Und genau das zeigen auch die publizierten Daten. Wobei dann, wenn der wahre Wert 40 ist, dies logischerweise auch der Erwartungswert ist, also der wahrscheinlichste Wert, somit derjenige, der auch am häufigsten vorkommt.
Eine solche Meßreihe wird also zB so aussehen: 40 - 39 - 41 - 40 - 40 - 38 - 40 - 42 - 41 - 39 usf.
Wer eine solche Reihe sieht, der weiß, daß sich nichts verändert hat. Nur dumme Journalisten, die von Statistik und Demoskopie keine Ahnung haben, "melden" dann, daß die Partei X "plötzlich von 41 auf 39 Prozent abgesackt" sei.
Ich weise auf diesen Unfug übrigens seit Jahren hin. Es war eines meiner Lieblingsthemen schon vor der Zeit von ZR.
Wenn man diese Fehlervarianz verringern will, dann gibt es im wesentlichen nur das Mittel des Poll of Polls. Zum einen erhöht man dadurch schlicht die Stichprobengröße. Zum anderen werden systematische Fehler, wie sie natürlich bei jedem Institut zu finden sind, ausgeglichen. Wenn man das richtig macht, dann kann man Wahlergebnisse oft sehr genau vorhersagen. Ich habe das für die französischen und amerikanischen Präsidentschaftswahlen gemacht; es steht irgendwo in ZR. Wenn es Sie interessiert, kann ich es heraussuchen.
Zitat von R.A.Wenn man das so unbereinigt veröffentlichen würde, dann würde man politische Veränderungen postulieren, die überhaupt nicht real sind.
Nein, eben nicht. Das Institut würde das nicht "postulieren", sondern die Presse würde es allenfalls "fabrizieren". Dafür kann das Institut nichts.
Zitat von R.A.Und deswegen müssen die Institute auch bei Umfragen mit etwas größerem Abstand eine Art gleitenden Durchschnitts anwenden, deswegen haben die veröffentlichten Zahlen nur selten größere Sprünge (und auch nur dann, wenn politisch etwas passiert ist, daß diesen Sprung erklärt).
Ist das jetzt Ihre Phantasie, oder wer hat Ihnen diese Information geliefert? In aller Freundschaft, lieber R.A.: Ich werde allmählich ärgerlich. Sie setzten einfach wilde Behauptungen in die Welt, ohne auch nur den Versuch zu machen, sie zu belegen.
Wenn irgendwer irgendwo einmal ominöse "Berechnungen" angestellt hat, die Sie aber nicht verlinken können, dann ist das, verzeihen Sie, noch weniger wert als irgendeine Behauptung im AR4 des IPCC.
Zitat von R.A.Schauen Sie sich doch einfach mal die Zeitreihen an. Kann es wirklich eine seriöse Erklärung geben, daß Forsa über Monate hinweg einen völlig anderen SPD-Trend sieht als alle anderen Institute?
Ja natürlich. Ich habe das jahrzehntelang Studenten einzuimpfen versucht: Auch die seltsamsten Daten sind möglich. Irgendwelche Auffälligkeiten als solche besagen gar nichts. Erst wenn man ein bestimmtes Verhalten der Daten aus einer Hypothese abgeleitet und vorhergesagt hat und man die Vorhersage bestätigt findet, kann man diese Hypothese als belegt (supported; nicht bewiesen) betrachten.
Irgendwelche Muster in irgendwelchen Daten mit sozusagen dem physiognomischen Blick zu erschauen und daraus dann Behauptungen abzuleiten, ist Kaffesatzleserei, Spökenkiekerei. Ganze Generationen von Parapsychologen lebten davon.
Und Verschwörungstheoretiker aller Couleur. Es ist unwahrscheinlich, daß eine geologische Formation auf dem Mars, von der Erde aus im Sonnenlicht betrachtet, gerade die Gestalt eines Gesichts erkennen läßt. Aber es kommt eben vor. Solche "Auffälligkeiten", aus denen Verschwörungstheoretiker ihren Honig saugen, sind schlicht dem Zufall geschuldet. Aber kein Verschwörungstheoretiker hat den Begriff des Zufalls wirklich verstanden.
Ich hätte mir, lieber R.A., wirklich gern mal angesehen, was Ihr Gewährsmann sich da aus den Rippen geschnitten hatte. Vielleicht hätte ich Sie durch die konkrete Kritik daran überzeugen können.
So werden wir es wohl beim agree to disagree belassen müssen; was in diesem Fall auf meiner Seite völliges Unverständnis für Ihre Position bedeutet.
Zitat In aller Freundschaft, lieber R.A.: Ich werde allmählich ärgerlich. Sie setzten einfach wilde Behauptungen in die Welt, ohne auch nur den Versuch zu machen, sie zu belegen.
Ich wäre fast geneigt, mit Ärger zu reagieren.
Ich habe nämlich nie behauptet, hier eine Beweisführung liefern zu wollen. Das muß ich auch nicht, weil ich eben nicht wie das IPCC Kathederwahrheiten verkünde und Glauben anbefehle.
Sondern ich habe dargelegt wie ich dazu kam, Forsa nichts mehr zu glauben. Grundlage dafür war u. a. eine ausführliche Berechnung im Internet. Die ich nicht mehr verlinken kann, das kommt im Internet vor. Jetzt können Sie gerne glauben, daß ich a) diese Sache frei erfunden habe oder b) nicht fähig bin, eine solche Darstellung zu verstehen - damit müßte ich leben. Ich werde dann weder ein Leumundszeugnis vorlegen noch meine Diplomurkunde in Mathematik.
Ich habe nur versucht die Vorgehensweise dieser Berechnung zu schildern, ohne sie leider konkret vorführen zu können.
Zitat Auch die seltsamsten Daten sind möglich. Irgendwelche Auffälligkeiten als solche besagen gar nichts.
Das kommt auf die Art und Häufigkeit der Auffälligkeit an.
Wir kommen aus sehr verschiedenen Lebensbereichen, das erklärt manche Unterschiede im Urteilen. Sie sind an den wissenschaftlichen Kontext gewöhnt, an eine im Regelfall objektive und faktenorientierte Kommunikation über nachprüfbare Fakten.
Wenn ich dagegen Bilanzen, Vorstandsvorlagen, politische Beschlußanträge, Geschichtsdarstellungen lese, liegen denen natürlich auch irgendwo Fakten zugrunde, teilweise auch nachprüfbar. Aber alle diese Dokumente unterliegen einer heftigen Bias. Ich forsche nicht naturgegebenen Gesetzmäßigkeiten nach, sondern den Darstellungen von interessegeleiteten Menschen. Und da habe ich eben eine andere Sicht auf Auffälligkeiten entwickelt. Da muß ich auch mal handeln, ohne daß ich den letzten Beweis habe - und fast immer erweist sich dann auch, daß tatsächlich etwas hinter der Auffälligkeit steckte.
Zitat So werden wir es wohl beim agree to disagree belassen müssen
Gerne. Denn ich weiß ja, daß Sie Wissenschaftler genug sind, um ihre Position zu überdenken, wenn ich die Belege nachliefern kann. Siehe Klimadiskussion
Vielleicht die Stelle ab 17:49: "Individually it makes sense, but collectively it puts huge downward pressure on firms the minute they get into trouble."
Aber es gab eine Reihe ähnlicher Podcasts um dieses Thema, und es war nur eine kurze Seitenbemerkung der Art, alle hätte dieselbe Exit-Strategie verwendet, und nur die Aufsicht hätte das merken können.
Zitat von R.A.Jetzt können Sie gerne glauben, daß ich a) diese Sache frei erfunden habe oder b) nicht fähig bin, eine solche Darstellung zu verstehen - damit müßte ich leben.
Es liegt mir fern, lieber R.A., das zu behaupten, a) so wenig wie b). Dazu kennen wir uns ja schon viel zu lange.
Ich vermag mir nur nicht vorzustellen, daß man es einer Reihe von Stichproben aus derselben Grundgesamtheit ansehen kann, ob die Daten "geglättet" wurden. Woher will man wissen, welches die "eigentliche" Varianz dieser Daten ist? Aber ich denke, das sollten wir auf sich beruhen lassen. Viel spannender finde ich diesen Punkt:
Zitat von R.A.Wir kommen aus sehr verschiedenen Lebensbereichen, das erklärt manche Unterschiede im Urteilen. Sie sind an den wissenschaftlichen Kontext gewöhnt, an eine im Regelfall objektive und faktenorientierte Kommunikation über nachprüfbare Fakten.
Wenn ich dagegen Bilanzen, Vorstandsvorlagen, politische Beschlußanträge, Geschichtsdarstellungen lese, liegen denen natürlich auch irgendwo Fakten zugrunde, teilweise auch nachprüfbar. Aber alle diese Dokumente unterliegen einer heftigen Bias. Ich forsche nicht naturgegebenen Gesetzmäßigkeiten nach, sondern den Darstellungen von interessegeleiteten Menschen. Und da habe ich eben eine andere Sicht auf Auffälligkeiten entwickelt. Da muß ich auch mal handeln, ohne daß ich den letzten Beweis habe - und fast immer erweist sich dann auch, daß tatsächlich etwas hinter der Auffälligkeit steckte.
Daran habe ich auch gedacht, während ich meinen Text schrieb und mich gefragt habe, warum meine Reaktion eigentlich so affektiv ist.
Es ist ein Thema, auf das ich immer wieder stoße. Kürzlich hat es Dirk angesprochen, mit seinem Hinweis auf Sachlichkeit und Affekt. Auch unsere Diskussion zum IPCC durchzieht das ja. Ich verteidige - bis zum Nachweis des Gegenteils - die Wissenschaftler, die die Theorie der globalen menschengemachten Erwärmung vertreten, weil ich sie eben - bis zum Beweis des Gegenteils - in ihrer großen Mehrheit für Wissenschaftler halte; Wissenschaftler, die bei aller Fehlbarkeit doch der Wahrheit verpflichtet sind.
Deshalb fällt es mir so schwer, zu glauben, daß Betrug im Spiel ist, bewußte Irreführung. Daß manchmal schlampig gearbeitet wurde, glaube ich allerdings sehr wohl; das kommt leider auch bei Wissenschaftlern vor. Und einige wenige mögen auch korrupt sein; als bewiesen sehe ich das aber noch nicht.
Übrigens macht man als Uni-Mensch eine interessante Erfahrung:
Es gibt den Typus des Wissenschaftlers, der das auch im, sagen wir, politischen Bereich bleibt - also in Gremien, in der Hochschulpolitik. Es gibt aber auch (und immer häufiger) diejenigen, die gewissermaßen den Talar abgeben, wenn sie einen solchen Sitzungssaal betreten, und dann Politik machen. Und es gibt die wenigen, die immer Politik machen; selbst wenn sie wissenschaftlich arbeiten sollten.
Die sind in den Naturwissenschaften sehr, sehr selten. In den Geisteswissenschaften mag es sie geben. In den Sozialwissenschaften sind sie gegenwärtig schon fast die Regel. Ein Emile Durkheim oder ein Max Weber wäre dort heute ein Unikum. Jemand wie Christoph Butterwegge sieht nach meinem Eindruck die Wissenschaft als Magd der Politik, so wie man im Mittelalter die Philosophie manchmal als Magd der Theologie sah.
Aus meiner Sicht ist parteiliche Wissenschaft aber eine contradictio in adjecto. Parteilichkeit ist das Ende jeder Wissenschaft.
Die Demoskopie liegt als angewandte Sozialforschung an der Schnittstelle zwischen den beiden Welten, die Sie treffend beschreiben. Ich sehe sie als angewandte Wissenschaft und kann mir deshalb die Manipulationen nicht vorstellen, von denen Sie annehmen, daß sie existieren.
Dazu übrigens noch ein allerletzter Punkt, der mir erst vorhin beim Ausräumen der Spülmaschine eingefallen ist:
Natürlich ist so etwas wie "Glätten" in der Gewichtung impliziert. Bei der Gewichtung korrigiert man die Rohdaten durch Erfahrungswerte über das Verhalten der betreffenden Wählergruppe. Da diese Erfahrungswerte langfristig sind, also nach jeder Erhebung mit demselben Betrag in die Gewichtung eingehen, reduziert dieses Verfahren automatisch die Varianz der gewichteten Werte im Vergleich zu den Rohdaten.
Das ist aber nichts, das man den Demoskopen nachweisen müßte; sie sagen es ja selbst.
Die FG Wahlen publiziert jeweils sowohl die Rohdaten ("politische Stimmung") als auch die gewichteten Werte ("Projektion"). Die "Projektion", wird dazu gesagt, berücksichtige auch (u.a.) "langfristige Überzeugungen" der Wähler. Damit ist ja schon gesagt, daß diese Werte eine geringere Varianz aufweisen als die "poltische Stimmung"; und so ist es auch.
Vielleicht meinte Ihr Gewährsmann nur das? Aber dazu hätte er nicht zu rechnen brauchen.
Zitat von ZettelDazu kennen wir uns ja schon viel zu lange.
Und haben, ach, die Gelegenheit versäumt, dies in Gummersbach real durchzuführen ...
Zitat Ich vermag mir nur nicht vorzustellen, daß man es einer Reihe von Stichproben aus derselben Grundgesamtheit ansehen kann, ob die Daten "geglättet" wurden. Woher will man wissen, welches die "eigentliche" Varianz dieser Daten ist?
Das ist doch kein Problem - wir reden hier ja nicht über Politik, sondern erst einmal nur über die Stichprobe. Es sei also gesichert, daß genau 40% schwarze Kugeln im Sack sind - wieviele schwarze Kugeln werde ich also bekommen, wenn ich 1000 ziehe. Diese Varianz läßt sich berechnen, ohne die konkreten Institutsmethoden zu kennen.
Und wenn sich sonst nichts an der politischen Landschaft ändert, sind das ja alles voneinander unabhängige Stichproben. Ob nun Institut X am Montag fragt oder Institut Y am Dienstag oder eine Woche später - man kriegt irgendeinen Wert zwischen vielleicht 38% und 42% mit 40% als häufigstes Ergebnis. Und die sind nicht sortiert - zeitliche Nähe heißt nicht, daß die Ergebnisse näher beieinander liegen. Oder anders: Bei normaler Varianz gibt es zwischen den Werten einen gewissen Anteil von Sprüngen im Wert von 0%, 1% oder 2%, ganz selten auch 3% oder 4%.
Ihre Reihe war eigentlich zu zittrig: 40 - 39 - 41 - 40 - 40 - 38 - 40 - 42 - 41 - 39 usf. Nur einmal ein Gleichbleiben der Werte, drei 1-er Sprünge, aber vier 2-er Sprünge - keine wirklich typische Meßreihe, aber bei nur 10 Werten durchaus noch möglich. Aber die langen Reihen bei Emnid, die sind überaus glatt. Wochenlang keine Verändung, bei hunderten von Werten nur ganz wenige 2-er Sprünge. Wobei man jetzt die 1000er-Stichprobe und ihre Varianz berechnen müßte, um einen Maßstab zu finden.
Zitat Deshalb fällt es mir so schwer, zu glauben, daß Betrug im Spiel ist, bewußte Irreführung.
Es gibt ja (außerhalb der Laborwissenschaft) noch eine große Grauzone zwischen "Wahrheit" und "Betrug". Ich sage eben nicht, daß Forsa betrügt. Aber ich glaube ihnen nicht.
Oder in der Nachbardiskussion: Ich würde keinesfalls behaupten, daß der gute Verleger Thiele uns hier Lügen auftischt. Aber ich glaube seinen Beitrag nicht. Wahrscheinlich hat er hier selektiv ein paar Einzelfälle etwas aufgeblasen, vielleicht hat er auch seine eigene Kalkulation nicht gut im Griff, wer weiß.
Zitat Vielleicht meinte Ihr Gewährsmann nur das?
Auch. In der Tat macht FGW hier einen Teil der internen Berechnungen transparent, es gibt aber noch mehr Korrekturen. Und das ist grundsätzlich auch kein Geheimnis. Es ist auf jeden Fall kein starres Verfahren, wo vorne die aktuellen Rohdaten ins Excel kopiert werden und dann am Ende die fertige Prognose rausfällt. Sondern es gibt dabei einige "weiche" Stellen, wo die Institute mit ihrer politischen Erfahrung korrigieren. Was ich völlig ordnungsgemäß finde - es ist eben eine Sozialwissenschaft, keine Physik.
Und daß manchmal diese Korrekturen interessegeleitet sein könnten, das ist wieder eine andere Sache.
Danke. Das ist bei Credit-Default-Swaps, die mit Short-Selling gehedget werden, noch viel eklatanter als bei besicherten Wertpapieren. Nimmt man einen stetigen und exogenen Kursverlauf an, gibt es keine Probleme. Dann kann man genau den Punkt abpassen, an dem man hedged und die Leerverkäufe beinflussen (per Annahme) nicht den Kursverlauf. Aber wenn doch, oder wenn es aus sonst welchen Gründen zu Sprüngen kommt. Die vermeintliche Sicherheit ist weitestgehend mit Modellunsicherheit erkauft.
Zitat von R.A.Das ist doch kein Problem - wir reden hier ja nicht über Politik, sondern erst einmal nur über die Stichprobe. Es sei also gesichert, daß genau 40% schwarze Kugeln im Sack sind - wieviele schwarze Kugeln werde ich also bekommen, wenn ich 1000 ziehe. Diese Varianz läßt sich berechnen, ohne die konkreten Institutsmethoden zu kennen.
Und wenn sich sonst nichts an der politischen Landschaft ändert, sind das ja alles voneinander unabhängige Stichproben. Ob nun Institut X am Montag fragt oder Institut Y am Dienstag oder eine Woche später - man kriegt irgendeinen Wert zwischen vielleicht 38% und 42% mit 40% als häufigstes Ergebnis. Und die sind nicht sortiert - zeitliche Nähe heißt nicht, daß die Ergebnisse näher beieinander liegen. Oder anders: Bei normaler Varianz gibt es zwischen den Werten einen gewissen Anteil von Sprüngen im Wert von 0%, 1% oder 2%, ganz selten auch 3% oder 4%.
Das sind Erwartungswerte, denen Sie sich nähern, wenn Sie, sagen wir, tausend Umfragen machen könnten, ohne daß sich an den Einstellungen der Wähler etwas ändert.
Die tatsächlichen Meßreihen eines Instituts, von denen man vernünftigerweise annehmen kann, daß sich über sie an den Einstellungen nichts ändert, umfassen, wenn es hoch kommt, ein halbes Dutzend Messungen. Über deren Verteilung kann man genau nichts vorhersagen.
Nach dem Urnenmodell sind alle 49 Zahlen beim Lotto natürlich gleich wahrscheinlich. Wenn man sehr viele Ziehungen machen könnte, dann wären sie auch alle gleich häufig. Tatsächlich sieht es so aus, wie man hier sehen kann.
Zitat von R.A.Das ist doch kein Problem - wir reden hier ja nicht über Politik, sondern erst einmal nur über die Stichprobe. Es sei also gesichert, daß genau 40% schwarze Kugeln im Sack sind - wieviele schwarze Kugeln werde ich also bekommen, wenn ich 1000 ziehe. Diese Varianz läßt sich berechnen, ohne die konkreten Institutsmethoden zu kennen. Und wenn sich sonst nichts an der politischen Landschaft ändert, sind das ja alles voneinander unabhängige Stichproben. Ob nun Institut X am Montag fragt oder Institut Y am Dienstag oder eine Woche später - man kriegt irgendeinen Wert zwischen vielleicht 38% und 42% mit 40% als häufigstes Ergebnis. Und die sind nicht sortiert - zeitliche Nähe heißt nicht, daß die Ergebnisse näher beieinander liegen. Oder anders: Bei normaler Varianz gibt es zwischen den Werten einen gewissen Anteil von Sprüngen im Wert von 0%, 1% oder 2%, ganz selten auch 3% oder 4%. Ihre Reihe war eigentlich zu zittrig: 40 - 39 - 41 - 40 - 40 - 38 - 40 - 42 - 41 - 39 usf. Nur einmal ein Gleichbleiben der Werte, drei 1-er Sprünge, aber vier 2-er Sprünge - keine wirklich typische Meßreihe, aber bei nur 10 Werten durchaus noch möglich. Aber die langen Reihen bei Emnid, die sind überaus glatt. Wochenlang keine Verändung, bei hunderten von Werten nur ganz wenige 2-er Sprünge. Wobei man jetzt die 1000er-Stichprobe und ihre Varianz berechnen müßte, um einen Maßstab zu finden.
Momenterl. Es behauptet ja niemand, dass sich überhaupt nichts ändern würde in den Stimmenanteilen. Das ist also sicherlich kein weißes Rauschen, sondern wenn der (wahre) Wert in einer Woche hoch ist, dann wird er in der Woche danach tendenziell auch noch hoch sein. Das muss man in der Argumentation einbeziehen.
Ich habe mal die Zeitreihen für alle Parteien außer "Sonstige" (die Zahlen sind zu klein, da macht einem die Trunkierung bei Null Probleme) angeschaut und die Ganzzahligkeit außen vor gelassen. Nach AIC wird überall ein ARIMA(0,1,1)-Modell gewählt, die mittlere 1 zeigt einen sich ändernden Mittelwert an, die hintere eine Art Rückbezüglichkeit wie oben angesprochen. (Bei den Grünen kommt ein ARIMA(2,1,1)-Modell heraus, das ändert nichts.)
Nach der reinen Lehre sollten also die Modellfehler, also die Residuen, das, was übrigbleibt, wenn man die historischen Werte mit dem Modell fittet, ein weißes Rauschen sein: normalverteilt mit einer gewissen Varianz. In der beigefügten Grafik habe ich für jede Partei einmal diese Modellfehler aufgetragen und einmal normalverteilte Zufallszahlen mit der gleichen Varianz. Können Sie mir jeweils sagen, ob links oder rechts die "echten" Residuen oder die Zufallszahlen stehen? Ich kann das nicht. Ergo können die Emnid-Zahlen mit all ihrer Glattheit problemlos aus einem (gerundeten) ARIMA-Prozess herrühren, und ich sehe zumindest mit dieser sehr kruden Herangehensweise keinen Grund zur Irritation.
Fazit: gerade bei Zeitreihen muss man extrem vorsichtig sein, eine "Struktur" als Signal zu interpretieren statt als Noise.
EDIT: die dritte 1 in den ARIMA-Modellen ist natürlich nicht die Rückbezüglichkeit im Sinne eines autoregressiven Terms, wie ich es oben skizziert habe, sondern vielmehr ein Moving Average-Term, jeweils mit einem negativen Koeffizienten zwischen -1 und 0 - somit sorgt der eher für eine Regression zur Mitte. Tut mir leid für die technischen Bemerkungen, aber Fehler bekommt man hier ja schnell um die Ohren gehauen, deswegen will ich meinen Unsinn nicht stehen lassen
-- La sabiduría se reduce a no olvidar jamás, ni la nada que es el hombre, ni la belleza que nace a veces en sus manos. - Nicolás Gómez Dávila, Escolios a un Texto Implícito
Zitat von ZettelDas sind Erwartungswerte, denen Sie sich nähern, wenn Sie, sagen wir, tausend Umfragen machen könnten, ohne daß sich an den Einstellungen der Wähler etwas ändert. Die tatsächlichen Meßreihen eines Instituts, von denen man vernünftigerweise annehmen kann, daß sich über sie an den Einstellungen nichts ändert, umfassen, wenn es hoch kommt, ein halbes Dutzend Messungen. Über deren Verteilung kann man genau nichts vorhersagen.
Darf ich widersprechen? Wären die wahren Werte tatsächlich ein weißes Rauschen, dann hätte R.A. völlig recht - dermaßen lange konstante Läufe von (gerundeten) konstanten Realisierungen sind höchst unwahrscheinlich. Jedenfalls wenn sie für fünf Parteien auftreten. Nehmen Sie mal die Emnid-Werte, rechnen Sie Mittelwert und Standardabweichung für jede Partei aus und simulieren Sie zufällig um den Mittelwert schwankende "Umfragewerte", die Sie dann auf ganze Zahlen runden - die Ergebnisse sind viel zittriger als die Emnid-Zahlen. Insbesondere wenn Sie sie mit den unzittrigen Werten von gleich fünf Parteien vergleichen.
Der Grund ist halt, dass die tatsächliche Residualvarianz viel niedriger ist, nachdem man die den Zeitreihen innewohnenden Strukturen berücksichtigt.
-- La sabiduría se reduce a no olvidar jamás, ni la nada que es el hombre, ni la belleza que nace a veces en sus manos. - Nicolás Gómez Dávila, Escolios a un Texto Implícito
Zitat von R.A.Eine Menge Leute und Institute haben dabei Geld verloren - aber es gab keine einzige Folgepleite.
Lehman war doch nur ein Symbol. Nämlich dafür, dass die implizite Annahme, die Politik werden Problembanken immer unter die Arme greifen, so lange sie groß genug sind, nicht mehr gelten könnte. Da haben sich aller Augen sofort auf die AIG gerichtet, wo die eigentliche Musik gespielt hat, und wenn man sich vor Augen hält, was die DeuBa über die AIG quasi indirekt aus dem Rettungspaket der US-Regierung erhalten hat, dann kann man sich schon einiges ausmalen...
Zitat von R.A.Mir sind jedenfalls diese vagen Begründungen der Art "irgendetwas Schreckliches wird passieren" suspekt.
Warum sollte die Regierung sonst diese enormen Beträge in die HRE gesteckt haben? Ist das ohne stamokapähnliche Verschwörungstheorie erklärbar?
-- L'État, c'est la grande fiction à travers laquelle tout le monde s'efforce de vivre aux dépens de tout le monde. (Frédéric Bastiat)
Sie sollen, lieber Gorgasal, Sie müssen! Ich hatte schon längere Zeit gehofft, daß Sie sich mit Ihrem Sachverstand einschalten.
Zitat von GorgasalDer Grund ist halt, dass die tatsächliche Residualvarianz viel niedriger ist, nachdem man die den Zeitreihen innewohnenden Strukturen berücksichtigt.
Und ein weiterer Grund ist, daß es sich - wie schon geschrieben - um gewichtete Werte handelt, bei denen durch die Gewichtung zwangsläufig die Varianz reduziert wird. Das ist aber etwas anderes als eine Manipulation der Daten, wie R.A. sie vermutet.
So ganz klar ist mir, lieber Gorgasal, Ihr Argument noch nicht, obwohl ich sicher bin, daß Sie Recht haben (wer anders hier im Forum und weit außerhalb sollte das besser beurteilen können?). Ich möchte deshalb einmal ganz naiv fragen:
Kann man ausrechnen, wie (un)wahrscheinlich eine Meßreihe wie die von Emnid ist, wenn man einmal unterstellt, es wären die Rohdaten?
Ab wann würden Sie einen Verdacht auf Manipulation für hinreichend begründet halten?
Wie kann man entscheiden, ob man es mit tatsächlichen, vielleicht ziemlich erratischen Schwankungen in der Einstellung der Wähler zu tun hat oder mit einem Meßfehler? Einen Meßfehler herauszurechnen wäre ja legitim; tatsächliche Schwankungen aber dürfen nicht übertüncht werden.
Ich finde das Thema interessant; wir haben es ja schon einmal im Zusammenhang mit dem Versuch eines russischen Statistikers diskutiert, auf dem Weg der statistischen Analyse Wahlmanipulationen aufzudecken. Und für die Klimadiskussion dürfte das ja auch von Belang sein.
Zitat Lehman war doch nur ein Symbol. Nämlich dafür, dass die implizite Annahme, die Politik werden Problembanken immer unter die Arme greifen, so lange sie groß genug sind, nicht mehr gelten könnte.
Und Lehmann hat's möglicherweise deshalb erwischt, weil von deren Pleite weniger Amerikaner als Ausländer betroffen gewesen sein sollen. Zumindest wird das in Hans Olaf Henkels Buch "Die Abwracker" so angedeutet (nicht behauptet!).
Zitat von ZettelSo ganz klar ist mir, lieber Gorgasal, Ihr Argument noch nicht, obwohl ich sicher bin, daß Sie Recht haben (wer anders hier im Forum und weit außerhalb sollte das besser beurteilen können?).
Danke schön, das nehme ich als Kompliment, aber ich hoffe, Sie meinen das nicht zu ernst...
Grob zusammengefasst: die Emnid-Daten können problemlos aus einem Data Generating Process stammen, der mir für Umfragewerte sehr naheliegend erscheint. Um derlei Daten zu erhalten, muss man rein zeitreihenanalytisch keine exotischen Annahmen treffen. Deswegen erscheint mir die (starke) Hypothese einer Manipulation unnötig, siehe Okhams Rasiermesser.
Zitat von ZettelKann man ausrechnen, wie (un)wahrscheinlich eine Meßreihe wie die von Emnid ist, wenn man einmal unterstellt, es wären die Rohdaten? Ab wann würden Sie einen Verdacht auf Manipulation für hinreichend begründet halten?
Die Frage musste ja kommen, Sie Wissenschaftler, Sie
Darüber hatte ich gestern auch schon nachgedacht, und mir ist keine objektive Methode eingefallen. Ich sehe keine offensichtliche Nullhypothese, die man prüfen könnte - und keine offensichtliche a priori-Wahrscheinlichkeit, mit der man bayesianisch agieren könnte. Das Problem hier ist, dass es für jede Bewegung der Umfragewerte ex post eine "Erklärung" gibt, sei es, dass Westerwelles Äußerungen nun angeblich gut oder weniger gut angekommen seien. (Das gleiche sehen Sie bei den unsäglichen Börsenkommentatoren, die für jede Bewegung des DAX oder einzelner Werte nachträglich eine Erklärung finden, und sei es der Schluckauf des paraguayanischen Finanzministers - auch bei Aktienkursen wäre es schwierig, eine formale Wahrscheinlichkeit der Fälschung zu berechnen.)
Selbst wenn sich ein Umfrageinstitut immer wieder recht weit von den anderen Instituten entfernt, ist das kein Beleg für Fälschungen - vielleicht hat Forsa ja recht und die anderen unrecht? Oder bei den einen ist ein bias in der Berechnung, bei den anderen nicht (und wer ist wer?)?
Ich sehe hier nur die Möglichkeit unformaler und sehr subjektiver Argumente. Vergleichen wir beispielsweise einmal die ersten 20 Emnid-Werte für die CDU/CSU: 35 36 36 35 35 34 34 34 34 35 34 34 34 33 34 34 34 33 35 35 mit gerundeten normalverteilten Zufallszahlen (Mittelwert und Standardabweichung wie bei Emnid-CDU/CSU): 34 35 36 35 35 37 34 33 36 36 36 37 35 34 35 37 32 33 36 38 Letztere streuen deutlich mehr, und abweichend von R.A. würden mich gerade letztere misstrauischer machen. Im Kontext von Umfragen erwarte ich einfach, dass sich der Mittelwert relativ langsam ändern und dass die konkreten Werte mit einer relativ geringen Varianz um diesen sich ändernden Mittelwert streuen - nicht dass der Mittelwert über die Zeit konstant bleibt, denn dass die Wähler ihre Meinung über die Parteien ändern, erscheint mir offensichtlich. Insofern hätte es mich deutlich gestört, wenn bei der Analyse Hinweise auf ARIMA(p,0,q)-Modelle herausgekommen wären - ARIMA(p,1,q) trifft meine Intuition von politischen Umfragen viel besser.
-- La sabiduría se reduce a no olvidar jamás, ni la nada que es el hombre, ni la belleza que nace a veces en sus manos. - Nicolás Gómez Dávila, Escolios a un Texto Implícito
Zitat von ZettelSo ganz klar ist mir, lieber Gorgasal, Ihr Argument noch nicht, obwohl ich sicher bin, daß Sie Recht haben (wer anders hier im Forum und weit außerhalb sollte das besser beurteilen können?).
Da möchte ich mich doch anschließen. So eine direkte Berechnung von Streuung etc. konnte ich ja noch nachvollziehen, aber bei der Interpretation der Arima-Ergebnisse merke ich schon, daß ich diese Themen nach dem Vordiplom nicht mehr weiterverfolgt habe ...
Wobei spannend ja vor allem die Frage wäre, wie stark die Ergebnisse der Institute voneinander abweichen dürfen, auch in der Art der Abweichung, um glaubhaft zu bleiben.
Zitat von GorgasalDas Problem hier ist, dass es für jede Bewegung der Umfragewerte ex post eine "Erklärung" gibt
Im Prinzip ja. Obwohl ein größerer Sprung (z. B. SPD bei Forsa im Herbst 2008) nur schwer erklärbar ist, wenn in dieser Zeit SPD-mäßig nichts passiert ist. Dann ist man tatsächlich beim Schluckauf des paraguayanischen Finanzministers ...
Zitat Selbst wenn sich ein Umfrageinstitut immer wieder recht weit von den anderen Instituten entfernt, ist das kein Beleg für Fälschungen ...
Ein Beleg natürlich sowieso nie - maximal ein Grund, mißtrauisch zu werden. Aber es kommt ja wohl auch darauf an, welcher Art die Abweichungen sind. Wenn z. B. ein Institut deutlich stärkere Ausschläge liefert als die Kollegen, wäre das völlig plausibel. Wenn es gewisse Parteien im Schnitt stärker oder schwächer einschätzt als die Konkurrenz, wäre das auch noch nachvollziehbar (dann wäre die Frage, wer häufiger am Wahlabend recht hat).
Aber wenn nun üblicherweise die Institute eng beieinander liegen, über lange Zeit nur wenig Abstand bei den Prognosen ist. Und dann immer wieder ein Institut markante Abweichungen prognostiziert, die bei keinem Konkurrenten auftauchen - gibt es da ein Maß, ab dem das statistisch verdächtig wird?
Wobei ich persönlich ja immer noch die Metaebene verknüpfe, d.h. eine Koinzidenz zu beobachten glaube, daß diese Abweichungen besonders nützlich für die Argumentation bestimmter Politiker sind ...
Zitat von RaysonWarum sollte die Regierung sonst diese enormen Beträge in die HRE gesteckt haben?
Da sind viele Gründe denkbar, einige hatte ich ja als Beispiele gebracht.
Ich will zwar nicht sagen, daß die Begründung "die Regierung hat das gemacht, weil es sinnvoll und notwendig war" von vorneherein unwahrscheinlich wäre. Noch nicht einmal bei der damaligen Regierung.
Aber ich finde es schon ungewöhnlich, daß so außergewöhnliche Maßnahmen mit einer so vagen Begründung einher kommen. Ich teile hier im wesentlichen die Skepsis von Russ Roberts von Econtalk. Der hat ja in den letzten zwei Dutzend podcasts immer wieder Fachleute gefragt, was denn nun die realen Gefahren bei einem Verzicht auf die bailouts gewesen wäre. Und die Antworten gingen nie über ein unkonkretes "irgendetwas Schlimmes hätte passieren können" hinaus - oder aber die Antworten teilten seine Skepsis.
Einfach nur "warum sonst ..." befriedigt mich da nicht.
Wir wissen ja alle, daß man Umfragewerten überhaupt nicht trauen kann ;-)
Aber ab und zu muß man mal eine Ausnahme machen.
Wenn Infratest-Dimap nun meldet, die FDP hätte nach den Westerwelle-Äußerungen 2% dazu gewonnen, dann ist das natürlich die reine Wahrheit. http://www.wahlrecht.de/umfragen/dimap.htm
Zitat von ZettelDa habt Ihr, verehrter Dirk, reüssiret, mich zu incommodiren, denn keinen Sinn vermag ich zu imaginiren
Verzeihen Sie, da haben Sie wirklich recht. Zumal es sich tatsächlich nur um Sprechblasen handelt und keine komplizierte Zusammenhänge, ohne die der Ökonom ziemlich nackt da stünde.
Als Übung für mich noch mal:
Wenn ein Institut einen Kredit aufnimmt und davon ein Wertpapier kauft, muss es, sollte das Wertpapier an Wert verlieren, im Notfall einfach nur dieses eine Papier just in dem Moment verkaufen, in dem man mit dem Erlös noch den Kredit bedienen kann. Eine Bank, die das Kreditausfallrisiko eines Unternehmen übernimmt, dagegen muss das eingegangene Risiko auf andere Weise reduzieren. Das macht sie, indem sie Anteile an diesem Unternehmen verkauft, auch wenn sie diese gar nicht besitzt. In dem Fall werden "Kopien" erstellt und verkauft und umso mehr umso kritischer die Situation des Unternehmens. Das Volumen muss immer weiter erhöht werden. Das funktioniert in der Theorie, nämlich wenn man annimmt, dass der Markt unendlich aufnahmebereit ist, sozusagen der Preis gar nicht von Angebot und Nachfrage abhängt, sondern fest gegeben ist.
Zitat von dirkWenn ein Institut einen Kredit aufnimmt und davon ein Wertpapier kauft, muss es, sollte das Wertpapier an Wert verlieren, im Notfall einfach nur dieses eine Papier just in dem Moment verkaufen, in dem man mit dem Erlös noch den Kredit bedienen kann. Eine Bank, die das Kreditausfallrisiko eines Unternehmen übernimmt, dagegen muss das eingegangene Risiko auf andere Weise reduzieren. Das macht sie, indem sie Anteile an diesem Unternehmen verkauft, auch wenn sie diese gar nicht besitzt. In dem Fall werden "Kopien" erstellt und verkauft und umso mehr umso kritischer die Situation des Unternehmens. Das Volumen muss immer weiter erhöht werden. Das funktioniert in der Theorie, nämlich wenn man annimmt, dass der Markt unendlich aufnahmebereit ist, sozusagen der Preis gar nicht von Angebot und Nachfrage abhängt, sondern fest gegeben ist.
Bitte beachten Sie diese Forumsregeln: Beiträge, die persönliche Angriffe gegen andere Poster, Unhöflichkeiten oder vulgäre Ausdrücke enthalten, sind nicht erlaubt; ebensowenig Beiträge mit rassistischem, fremdenfeindlichem oder obszönem Inhalt und Äußerungen gegen den demokratischen Rechtsstaat sowie Beiträge, die gegen gesetzliche Bestimmungen verstoßen. Hierzu gehört auch das Verbot von Vollzitaten, wie es durch die aktuelle Rechtsprechung festgelegt ist. Erlaubt ist lediglich das Zitieren weniger Sätze oder kurzer Absätze aus einem durch Copyright geschützten Dokument; und dies nur dann, wenn diese Zitate in einen argumentativen Kontext eingebunden sind. Bilder und Texte dürfen nur hochgeladen werden, wenn sie copyrightfrei sind oder das Copyright bei dem Mitglied liegt, das sie hochlädt. Bitte geben Sie das bei dem hochgeladenen Bild oder Text an. Links können zu einzelnen Artikeln, Abbildungen oder Beiträgen gesetzt werden, aber nicht zur Homepage von Foren, Zeitschriften usw. Bei einem Verstoß wird der betreffende Beitrag gelöscht oder redigiert. Bei einem massiven oder bei wiederholtem Verstoß endet die Mitgliedschaft. Eigene Beiträge dürfen nachträglich in Bezug auf Tippfehler oder stilistisch überarbeitet, aber nicht in ihrer Substanz verändert oder gelöscht werden. Nachträgliche Zusätze, die über derartige orthographische oder stilistische Korrekturen hinausgehen, müssen durch "Edit", "Nachtrag" o.ä. gekennzeichnet werden. Ferner gehört das Einverständnis mit der hier dargelegten Datenschutzerklärung zu den Forumsregeln.