Schwarzes Hamburg

  • 23 Dezember 2024, 20:55:48
  • Willkommen Gast
Bitte logg dich ein oder registriere dich.

Einloggen mit Benutzername, Passwort und Sitzungslänge
Erweiterte Suche  

Autor Thema: Statistik ?  (Gelesen 5902 mal)

Simia

  • > 1000 Posts
  • ***
  • Beiträge: 2049
  • I'm so Neofolk, I shit embers and charred logs.
Statistik ?
« Antwort #15 am: 05 August 2005, 16:17:54 »

Zitat von: "Thomas"
Ich halte diese rechnerische "wahrscheinlichkeitsermittlung" für zu wenig realistisch, da die vielen "vieleicht's" des Lebens nicht mit einkalkuliert werden.Das ist vermutlich auch der Grund, warum man an fast jeder Statistik solange herumrechnen kann, bis ein subjektiv akzeptables Ergebniss dabei herauskommt.


Geht mir auch so. Man braucht natürlich Zahlen/Wahrscheinlichkeiten, zur Berechnung von diesem und jenem. Aber es bestünde genaugenommen überhaupt kein Grund, sich in Sicherheit zu wiegen, nur weil lediglich Nullkommasoundsoviele Menschen unter 30 Jahren einen Schlaganfall erleiden. Daß es einen erwischen kann, davor schützt keine Statistik.

Nix für Paranoide ...  :wink:
Gespeichert
Wenn du feststellst, dass das Pferd das du reitest tot ist, steig ab.

vivere militare est
(Seneca) 8)

messie

  • > 10.000 Posts
  • ******
  • Beiträge: 15377
  • hrhrhr
Statistik ?
« Antwort #16 am: 05 August 2005, 16:31:19 »

Na, Statistik ist ja immer gewissen Unsicherheitsfaktoren unterworfen. Man geht in der Statistik i.d.R. davon aus dass es keine externen Faktoren gibt die das Ergebnis beeinflussen. Bei Meinungsumfragen gibts die natürlich. Wenn also n Ami sagt "ja, ich bin für Bush" kann das ja genauso heißen dass er das nur sagt weil s n Typ ist der niemals nein sagt oder weil seine Frau auch ja gesagt hat obwohl er vielleicht ohne diese Zusatzfaktorern nein gesagt hätte.

Solche Meinungsumfragen sind immer nur Stimmungsbarometer, nicht mehr. Wer sich da zu sehr darauf verlässt ist eh mindestens auf einem Auge blind.

Anders sieht es bei den Hochrechnungen aus, da sind von aussen beeinflussende Faktoren extrem gering, so dass die Prognosen oft auch sehr genau sind. Auch da sind die Stichproben ja vergleichsweise klein, dennoch unterscheiden sich die Prognosen selten mehr als um einen Prozentpunkt pro Partei gegenüber dem später tatsächlich feststehenden Endergebnis.

Was lernen wir draus? - Es gibt immer noch genügend unaufgeklärte Amerikaner und Statistikern wird für alle Zeiten die Arbeit nicht ausgehen, selbst wenn die Statistiken nicht so wahnsinnig viel aussagen mögen.  :wink:
Gespeichert
Nichts ist kostenlos im Leben - außer der Tod, und nicht mal der, denn der kostet dich das Leben.

colourize

  • Gallery Admin
  • > 5000 Posts
  • *
  • Beiträge: 6921
  • Rock this Town!
Statistik ?
« Antwort #17 am: 05 August 2005, 17:33:38 »

Zitat von: "Thomas"
Woher will man realistisch gesehen wissen, das sich 1000 andere, ebenso gleich verteilte Befragte nicht gänzlich anders geäußert hätten ?

Man *weiss* es nicht. Aber: Wenn die 1000 Einen genauso sind wie die 1000 Anderen (= Zufallsauswahl aus der Grundgesamtheit), dann kann man errechnen, mit welcher Vertrauenssicherheit die einen 1000 sich so äußern wie die anderen 1000.

Je komplexer die Fragestellung und die Antwortoptionen, desto mehr Personen müssen befragt werden um Aussagen mit der gleichen Vertrauenssicherheit treffen zu können.


Zitat von: "Thomas"
Sprich, wie kommst du auf einen Vertrauensbereich, der dir sagt, wie die Quote "in wirklichkeit" sein könnte ? Rechnerisch ist das mit der Formel machbar, aber wie legst du fest, das sich die Formel mit der Wirklichkeit deckt ?

Wenn es sich um eine Zufallsauswahl handelt, bildet die Stichprobe die Grundgesamtheit ("Wirklichkeit") ab.

Zitat von: "Thomas"
Ich halte diese rechnerische "wahrscheinlichkeitsermittlung" für zu wenig realistisch, da die vielen "vieleicht's" des Lebens nicht mit einkalkuliert werden.Das ist vermutlich auch der Grund, warum man an fast jeder Statistik solange herumrechnen kann, bis ein subjektiv akzeptables Ergebniss dabei herauskommt.

Die Praxis gibt aber mehr den statistischen Prognosen als Deiner Skepsis recht. ;)

Bei einer einfachen "Ja/Nein-Frage" bleibt nicht viel Spielraum zum Tricksen mit Statistik. Du hast recht - es gibt ein paar ganz nette statistische Taschenspielertricks. Bei der konkreten Frage kann zumindest ich aber keine solchen erkennen; und ich denke mal, dass mir die meisten ebensolchen schon einmal untergekommen sind. ;)
Gespeichert

SuperTorus

  • > 1000 Posts
  • ***
  • Beiträge: 1843
    • http://www.beichte.de
Statistik ?
« Antwort #18 am: 05 August 2005, 21:55:58 »

Man kann die Fehlerquote ja aus Erfahrung abschätzen.

Wenn man am Tag der Wahl eine Umfrage macht, das Ergebniss aber um x abweicht, dann kann man daraus den durchschnittlichen Vertrauensbereich für Fragen dieses Themas rechnen.

Hat man mehrere dieser "Umfrage + Wirklichkeit" Daten zur Verfügung kann man zusätzlich noch Alter der Daten gewichtet mit hinneinrechnen und bekommt sogar Trends in der Veränderung der Vertrauensbereiche in den Griff.

Mathematik ist toll.
Gespeichert
Eure Dummeheit kotzt mich an!
Nicht klicken: http://kevan.org/brain.cgi?supertorus

colourize

  • Gallery Admin
  • > 5000 Posts
  • *
  • Beiträge: 6921
  • Rock this Town!
Statistik ?
« Antwort #19 am: 05 August 2005, 22:21:04 »

Ja.. ich weiss zwar nicht, wie diese Formel zu Stande gekommen ist, aber so wie von Supertorus beschrieben könnte sie in der Tat empirisch entwickelt worden sein.
Gespeichert

SuperTorus

  • > 1000 Posts
  • ***
  • Beiträge: 1843
    • http://www.beichte.de
Statistik ?
« Antwort #20 am: 05 August 2005, 22:41:24 »

so würd ich's zumindest machen: Gauss-sche Gewichtung über die vorherigen Messreihen unter quadratischer Minimierung des Gesammtfehlers *aller* Messreihen.

Das ist das Optimum was man als Mathematiker machen kann ohne esoterisch zu werden.
Gespeichert
Eure Dummeheit kotzt mich an!
Nicht klicken: http://kevan.org/brain.cgi?supertorus

colourize

  • Gallery Admin
  • > 5000 Posts
  • *
  • Beiträge: 6921
  • Rock this Town!
Statistik ?
« Antwort #21 am: 05 August 2005, 23:15:43 »

So.. ich habe gerade in der Badewanne nochmal über das Problem nachgegrübelt, und festgestellt, dass es eine mathematische Lösung gibt, die vollkommen unabhängig von irgendwelchen empirischen Befunden besteht. Dementsprechend gibt es auch überhaupt keine Veränderung der Vertrauensbereiche im zeitlichen Verlauf. Die Formel gilt universell, und zwar für sämtliche Messungen (und damit auch für sämtliche Zufallsstichproben).

Nehmen wir an, dass wir einen Sachverhalt messen wollen, für den wir wissen, dass eine Fiffty-Fiffty Chance besteht (z.B. Münzwurf). Nehmen wir ferner an, dass wir mit einem 100%igen Fehler leben könnten (also das uns mit anderen Worten scheissegal ist, ob wir richtig messen). Setzen wir die Werte in obige Formel ein, sieht das so aus:

=((2*((0,5*0,5)^0,5))/1)^2

(2 Freiheitsgrade, 50/50 Chance, die 1 im Nenner besagt 100% Fehler, mit dem wir leben können)

Was kommt da raus: Wie zu erwarten war: 1

D.h. wir müssen genau 1 mal die Münze werfen, wenn es uns scheissegal ist, ob wir uns "vermessen" (d.h. eine 100%ige Irrtumswahrscheinlichkeit in Kauf nehmen). Mathematisch ist das btw. interessant: Bei einer gezinkten Münze mit einer 30 zu 70 Chance müssten wir bei einem in Kauf genommenen Fehler von 100% nur 0,84 mal werfen ;) )

Aber denken wir das Ding mal weiter: Münzwurf, 50-50 Chance, Vertrauensbereich: 50%
(D.h. für uns wäre ok, wenn wir zu 50% daneben liegen).

Formel in diesem Fall:

=((2*((0,5*0,5)^0,5))/0,5)^2

Ergebnis: Wir müssen 4 mal werfen...

Denken wir mal weiter: Münzwurf, 50-50 Chance, Vertrauensbereich 0% - das heißt, wir lassen keinen Fehler zu. Nun, wie oft wir werfen müssen, kann uns die Formel nicht sagen - weil wir durch 0 nicht dividieren können.

Offenkundig geht aber bei einem minimalen Vertrauensbereich die Zahl der nötigen Messungen gegen unendlich.
Gespeichert

Bombe

  • > 5000 Posts
  • *****
  • Beiträge: 7248
  • Tanzwart
    • http://www.pterodactylus.net/
Statistik ?
« Antwort #22 am: 05 August 2005, 23:23:12 »

Irgendwer hat neulich mal eine Methode entwickelt, um Umfragen dieser Art noch genauer zu machen... wenn ich mich richtig entsinne (ich hab leider voll keine Quelle dafür im Kopf), belief sich das ganze darauf, dass zwei Fragen gestellt wurden: Einmal nach dem, was man wissen will, und dann nochmal danach, was die befragte Person glaubt, wieviele Personen ebenfalls so antworten.

Aus den Daten, die sich aus der Antwort auf die zweite Frage ergeben, kann man dann irgendwie die Fehlerquote bei der ersten Frage minimieren. Oder so.
Gespeichert
Manchmal fragt man sich, ob sich die Rettungsversuche überhaupt lohnen. Lohnt es sich, die Menschheit zu retten? So wie ich die Sache sehe, ist die Intelligenz bereits ausgerottet, und es leben nur noch die Idioten.

SuperTorus

  • > 1000 Posts
  • ***
  • Beiträge: 1843
    • http://www.beichte.de
Statistik ?
« Antwort #23 am: 05 August 2005, 23:25:56 »

Das ist klar, Colourize. Solange die Warscheinlichkeit  berechenbar ist ist auch alles ganz einfach.

Es gibt ja immer einen Unterschied zwischen wählen und "nur so tun als ob".  Wenn's hart auf hart kommt, dann landet das Kreuz halt doch mal da, wo's letztes mal auch war, auch wenn man auf der Straße sein Maul aufreißt.

In der Fehlerquote liegt da ein systematischer Fehler, den Du zwar abschätzen, aber niemals rausrechnen kannst. Nichtmal wenn Du alle Wähler fragst und faktisch eine Phantom-Wahl durchführst.

Um auf's Thema zurückzukommen: 1000 Befrage sind m.E. eine lächerliche Stichprobe um eine Prognose zu stellen.
Gespeichert
Eure Dummeheit kotzt mich an!
Nicht klicken: http://kevan.org/brain.cgi?supertorus

colourize

  • Gallery Admin
  • > 5000 Posts
  • *
  • Beiträge: 6921
  • Rock this Town!
Statistik ?
« Antwort #24 am: 05 August 2005, 23:26:44 »

:shock:

Torus... ähmm.. hast Du meine Postings von oben gelesen? 8)

edit:
Du hast sicher recht, dass die Umfrageergebnisse nicht mit dem tatsächlichen Abstimmungergebnis übereinstimmen müssen. Das ist aber keine Frage des Stichprobenumfangs (Repräsentativität der Stichprobe für Rückschlüsse auf die Grundgesamtheit), sondern eine Frage der Messsicherheit ("Validität" genannt). Wie viele Personen man befragt ist davon vollkommen unabhängig.

"Validität" bezeichnet, ob in einer sozialwissenschaftlichen empirischen Erhebung das gemessen wurde, was vorgeblich gemessen werden soll. D.h. für den konkreten Fall, dass man mit der Frage "Sind Sie mit der Irak-Politik des Präsidenten einverstanden?" vielleicht nicht die tatsächliche Zustimmung erhebt, sondern vielleicht eher so etwas wie den "Unmut in der gesamten Bevölkerung".

Wie gesagt: Das ist eine vollkommen andere Problemlage als die Frage nach der Repräsentativität der Stichprobe! Man kann so viele Menschen befragen wie man will - man erhält durch die Erhöhung des Umfangs der Stichprobe keine Verbesserung der Validität, sondern nur eine Verbesserung der Aussagegenauigkeit (Vertrauensbereich).
Gespeichert

colourize

  • Gallery Admin
  • > 5000 Posts
  • *
  • Beiträge: 6921
  • Rock this Town!
Statistik ?
« Antwort #25 am: 06 August 2005, 00:49:51 »

Zu diesem Thema noch einen Link zur Sonntagsfrage von Infratest dimap, die ja die aktuellen Wahlumfragen, die u.a. in der Tagesschau genannt werden, erstellen.

Dort werden 1600 Personen befragt. In Folge dessen besteht eine Vertrauenssicherheit (hier umgangssprachlich als "Fehlertoleranz" bezeichnet" von  1,1 bis 2,5 Prozentpunkten. Die 1,1 gilt für gemessene Werte um 5%, die 2,5 für Werte um 50%.
Wenn man die Werte in die obige Formel einsetzt, stellt man - oh Wunder - fest, dass hier dieselbe Berechnung zu Grunde liegt. ;)
Gespeichert