Einf�hrung in die Statistik by 6SvTNGfI

VIEWS: 86 PAGES: 101

									Einführung in die Statistik
        für Sportwissenschaftler

                 1995, 2005

            überarbeitet SS 2002
   Thomas Ertelt, Roy Müller, Sten Grimmer




           R. Blickhan
INHALTSVERZEICHNIS                                              Statistik I



1. 1. EINLEITUNG                                                              4

1.1.     ZUR EINLEITUNG EIN EINFACHES BEISPIEL                                4
1.2.     STATISTISCHE PRÜFUNG:                                                4
1.2.1.     HYPOTHESE:                                                         4
1.2.2.     ERFASSUNG VON DATEN UND AUFSTELLUNG EINER TABELLE.                 4
1.2.3.     GRAPHISCHE DARSTELLUNG DER ERGEBNISSE                              5
1.2.4.     STATISTISCHES PRÜFEN DER HYPOTHESE                                 7
1.2.5.     BEURTEILUNG DER HYPOTHESE                                          7

2. DATEN UND GRAPHEN                                                          9

2.1.     GRUNDGESAMTHEITEN, STICHPROBEN UND DATEN                          9
2.1.1.     GRUNDGESAMTHEIT UND STICHPROBEN                                 9
2.1.2.     DATEN UND VARIABLE                                             10
2.2.     GRAPHEN UND DIAGRAMME                                            11

3. BESCHREIBUNG VON VERTEILUNGEN                                          13

3.1.     WAHRSCHEINLICHKEIT                                               13
3.2.     HÄUFIGKEITSVERTEILUNGEN                                          13
3.3.     MEDIAN, MODUS UND MITTELWERT                                     18
3.4.     STREUUNGSMAßE                                                    19
3.5.     SCHIEFE UND KURTOSIS                                             21

4. GRUNDLEGENDE VERTEILUNGEN                                              24

4.1.     EINFACHE VERTEILUNGEN                                            24
4.2.     BINOMIALVERTEILUNG, POISSONVERTEILUNG, NORMALVERTEILUNG          31
4.2.1.     BINOMIALVERTEILUNG                                             31
4.2.2.     POISSONVERTEILUNG                                              35
4.2.3.     NORMALVERTEILUNG (STETIGE VERTEILUNG)                          38

5. SCHLIEßENDE STATISTIK                                                  47

5.1.     STICHPROBE, GRUNDGESAMTHEIT UND STANDARDFEHLER                   47
5.2.     ENTSCHEIDUNGSTHEORIE, HYPOTHESEN UND SIGNIFIKANZ                 50




                                                                          II
INHALTSVERZEICHNIS                                          Statistik I



6. SCHLIEßENDE STATISTIK                                              53

6.1.     WICHTIGE PRÜFVERTEILUNGEN                                    53
6.2.     DER STUDENTS T-TEST                                          54
6.3.     DER F-TEST                                                   60
     2-TEST                                                      60
6.5.     WEITERE PRÜFVERFAHREN                                        67
6.5.1.     KOLMOGOROV-SMIRNOV-ANPASSUNGSTEST:                         67
6.5.2.     VORZEICHENTEST:                                            70
6.5.3.     WILCOXON-TEST FÜR GEPAARTE STICHPROBEN                     70
6.5.4.     MANN-WITNEY-U-TEST:                                        73

7. ABHÄNGIGE STICHPROBEN, KORRELATION                                 77

7.1.     METHODE DER KLEINSTEN QUADRATE ("CURVE FITTING")             77
7.2.     KORRELATION                                                  80
7.3.     STICHPROBENTHEORIE                                           81

8. LITERATUR:                                                       100




                                                                     III
Blickhan                                                             Statistik I




1. 1. EINLEITUNG


  1.1. Zur Einleitung ein einfaches Beispiel

    BEISPIEL 1.1:

    Springen Männer weiter als Frauen? Wenn ja warum? Springen Männer weiter
    weil sie schwerer sind oder weil sie aggressiver sind?

Für Hypothesenbildung sind Kenntnisse im Fach (z.B. Motorik, Biomechanik
etc.) erforderlich, für die quantitative Beurteilung Kenntnisse in Statistik.
Hypothesen können nur über tatsächlich gemessene Werte aufgestellt werden.


  1.2. Statistische Prüfung:


1.2.1. Hypothese:

Männer und Frauen springen gleich weit.

1.2.2. Erfassung von Daten und Aufstellung einer Tabelle.

 Frauen                     Männer
 Weite       Gewicht [kp]   Weite [m]     Gewicht [kp]
 [m]
 5,000       40             5,000         67
 4,300       45             3,800         67
 3,300       50             4,500         81
 2,600       60             3,200         102
 4,800       44             7,500         71
 3,700       55             5,500         67
 6,000       66             3,400         84


                                                                                   4
Blickhan                                                      Statistik I


 2,100       60             3,500      91
 3,100       70             5,000      81
 3,300       67             4,400      68
                            3,900      73
                            6,300      78
                            5,400      88



1.2.3. Graphische Darstellung der Ergebnisse

 Balkendiagramm - Sprungweite Frauen
Der Begriff „Binbreite“ wird verwendet, um die Datenmenge zu reduzieren.
(hier: Binbreite 1m)




 Balkendiagramm - Sprungweite Männer




                                                                            5
Blickhan                                                       Statistik I



                                Histogramm - Binbreite 1m

                   6
                   5
      Häufigkeit




                   4
                   3
                   2
                   1
                   0
                           0-1m 1-2m 2-3m 3-4m 4-5m 5-6m 6-7m 7-8m
                                               Sprungweite


 Punktdiagramm - Gewicht (Weite) - Frauen
                   70
                   60
  Gewicht [kp]




                   50
                   40
                   30
                   20
                   10
                       0
                            0       2               4   6

                                        Weite [m]




                                                                             6
Blickhan                                                           Statistik I


1.2.4. Statistisches Prüfen der Hypothese

Berechnung eines Prüfquotienten (t) (Excel)
t-Test: Two-Sample Assuming Unequal Variances
                                Variable 1            Variable 2
  Mean                          3,82                  4,72307692
  Variance                      1,42844444            1,55525641
  Observations                  10                    13
  Pearson Correlation           #N/A
  Pooled Variance               3,5
  df                            19,9126672
  t                             -1,7626943
  P(T<=t) one-tail              0,04701545
  t Critical one-tail           1,72913133
  P(T<=t) two-tail              0,09403089
  t Critical two-tail           2,0930247



Aufgrund der Größe des Prüfquotienten und der Zahl der zur Verfügung
stehenden Werte erfolgt die Aussage, dass die Sprünge im statistischen Mittel
unterschiedlich weit sind. (Hier allerdings fehlt die Prüfung auf
Normalverteilung.)

1.2.5. Beurteilung der Hypothese

Der Test zeigt: In der gezogenen Stichprobe springen Männer weiter als
Frauen.
Allerdings äußerst dünne Grundlage:
1. Datenumfang sehr gering.
2. Keine Prüfung auf Normalverteilung.
3. Keine repräsentative Stichprobe.



                                                                                 7
Blickhan                                                              Statistik I


Warum Unterschiede auftreten kann ein statistisches Verfahren nie
beantworten, sondern nur dass welche auftreten. Deshalb sind die oben
gestellten weiteren Fragen noch keine statistisch prüfbaren Hypothesen.
Das hier gezeigte Beispiel ist also beileibe kein Beispiel für gute Statistik aber
es liefert eine grobe Idee worum es in der Statistik geht und wie man Probleme
dort angeht.




                                                                                    8
Blickhan                                                            Statistik I




2. DATEN UND GRAPHEN


  2.1. Grundgesamtheiten, Stichproben und Daten


2.1.1. Grundgesamtheit und Stichproben

Der Begriff der Grundgesamtheit (Kollektiv, Population) bezieht sich auf die in
der Fragestellung angesprochene Menge.
Frage A: Springen Männer weiter als Frauen?
=> Grundgesamtheit: alle Männer und Frauen der Erde
Frage B: Springen bei Sportstudenten der FSU Männer weiter als Frauen?
=> Grundgesamtheit: alle Sportstudenten der FSU
Eine Grundgesamtheit kann auch unendlich sein: Die Gesamtheit aller Würfe,
die der theoretischen Wahrscheinlichkeit für das Werfen eines Wappens oder
einer Zahl besteht ist unendlich.
Eine Statistik, die nur eine bestimmte Gruppe zu beschreiben versucht ist
deskriptiv oder deduktiv (Frage B). Induktive Statistik oder statistische
Interferenz beschäftigt sich mit den Bedingungen, unter welchen Schlüsse auf
die Grundgesamtheit gezogen werden können (z.B. Beantwortung der Frage A).
In der Regel kann nur ein kleiner Teil der Gruppe betrachtet werden. Die
Gruppe, an welcher die erforderlichen Daten erhoben werden, bildet eine
Stichprobe. Die Stichprobe sollte möglichst repräsentativ für die
Grundgesamtheit sein.


deskriptiv  Reduktion einer großen Datenmenge
            (Grundgesamtheit) auf eine überschaubare und
            möglichst ausgeprägte Darstellung (Stichprobe).


                                                                                  9
Blickhan                                                              Statistik I


induktiv  (gestützt auf Wahrscheinlichkeit) Versucht eine
           Verallgemeinerung der, bei der Untersuchung
           einer bestimmeten statistischen Masse
           (Grundgesamtheit, Stichprobe), gewonnenen
           Informationen zu erhalten.                    deskriptiv

              deskriptiv
                                                          deskriptiv

                                               induktiv




      Grundgesamtheit                                        Stichprobe

2.1.2. Daten und Variable

Grundlage der Statistik bilden die erfassten Daten. Dies können messbare
Größen sein, wie Gewicht, Größe, Sprungweite, Reaktionszeit etc. und man
nennt sie Variablen.
Nimmt die Variable nur einen Wert an, so nennt man sie Konstante.
Nimmt sie jeden beliebigen Wert an, so ist sie stetig (z.B. das Körpergewicht),
andernfalls ist sie diskret (z.B. die Zahl der Erbsen in einer Schote). Für manche
statistische Verfahren werden Daten benötigt, die nur aus den Rangnummern
vom kleinsten bis zum größten Messwert bestehen (z.B. lieb, ein bisschen lieb,
ein bisschen böse, sehr böse). Man nennt sie Rang- oder Ordinaldaten. Manche

                                                                               10
Blickhan                                                           Statistik I


Daten lassen sich (in der Regel) in keine Rangskala einordnen (z.B. männlich
oder weiblich). Man nennt diese Daten Nominaldaten oder Kategorien.


Nominalskala  verschiedenartig (Beruf, Postleitzahlen)

Ordinalskala  verschiedenartig + Rangfolge (Güteklasse,
               Schulnote)

Intervallskala  Abstände zwischen den Ausprägungen
                 (Tempo, Geburtsjahrgang)

Verhältnisskala  Verhältnisse von Ausprägungen
                 (Einkommen, Kinderzahlen)

diskret  abzählbare Merkmalsausprägungen (z.B.
         Augenzahlen beim Würfel = 6 Ausprägungen)

stetig  unendlich viele Merkmalsausprägungen (Körperhöhe
         = unendlich viele Ausprägungen)


  2.2. Graphen und Diagramme

Graphen und Diagramme stellen ein unentbehrliches Hilfsmittel zur
Beurteilung gewonnener Datensätze dar.
Sie sind heute Bestandteil eines jeden einigermaßen brauchbaren Tabellen- oder
Statistikprogramms. Hier eine grobe Einordnung:


                                        Variable
 Daten             Eine                 Zwei               Viele
 Kategorisch       Balken (Bar)
 (category)
                   Kategorisch
                   Kuchen (Pie)

                                                                            11
Blickhan                                                             Statistik I


 Kontinuierlich    Kasten (Box)         Karte (Map)         Bild (Icon)
                   Dichte (Density)     Plot                Karte (Map)
                   Karte (Map)          Quantile            Plot
                   Wahrscheinlichkeit   Streugraphmatrize   SPLOM
                   (Probability)        n (SPLOM)
                   Quantile
 Gemischt                               Balken              Balken
                                        Kasten              Kategorisch
                                        Kategorie
                                        Kuchen


Beispiele nach Vorbilder aus SYSTAT an Tafel Skizzieren.
Wichtig: Klare, übersichtliche Darstellung (nicht notwendigerweise bunt!).
Geeignete Strichstärken und Schriftgrößen, so dass sie für das jeweilige
Publikum gut zu lesen sind.




                                                                              12
Blickhan                                                          Statistik I




3. BESCHREIBUNG VON VERTEILUNGEN


  3.1. Wahrscheinlichkeit

Nehmen wir an, dass ein Ereignis E in h Fällen von insgesamt n
gleichmöglichen Fällen vorkommen kann, dann ist die Eintritts-
wahrscheinlichkeit des Ereignisses (Erfolg) gekennzeichnet durch

p  P( E )  h  Anzahl h der für das Ergebnis E güstigen Fälle
             n           Anzahl n der möglichen Fälle



Die Gesamtwahrscheinlichkeit für alle n möglichen Fälle ist 1. (da p = P(E) =
n
  = 1)
n

    BEISPIEL 3.1.1:

    Münze  Wie wahrscheinlich ist der Wurf einer Zahl?

    BEISPIEL 3.1.2:

    Würfel  Wie wahrscheinlich ist der Wurf einer 6?

Die Wahrscheinlichkeit ist in der Theorie ein festgelegter Begriff wie in der
Geometrie ein Punkt oder eine Gerade. Verständlich wird er nur über
Häufigkeiten. Die empirische Wahrscheinlichkeit eines Ereignisses ist die
relative Häufigkeit des Eintritts eines Ereignisses, wenn die Anzahl der
Beobachtungen sehr groß ist. Die Wahrscheinlichkeit ist der Grenzwert dieser
Häufigkeiten für unendlich viele Beobachtungen.

Zum Vergleich zwischen empirischen und theoretischen Wahrscheinlichkeiten
muss die Häufigkeit von Ereignissen bei Experimenten gemessen werden.

  3.2. Häufigkeitsverteilungen


                                                                           13
Blickhan                                                              Statistik I


Um Häufigkeitsverteilungen zu ermitteln, müssen erfasste Daten in einem
ersten Schritt geordnet und klassifiziert werden. Bei der Datenerhebung wird
zunächst eine Urliste erstellt. Diese Liste ist noch nicht geordnet. Die Ordnung
erfolgt in der primären Verteilungsliste. Im nächsten Schritt wird der
Datenbereich in Intervalle, Klassen aufgeteilt und die Häufigkeit (frequency)
gezählt, mit welcher erfasste Daten in die entsprechenden Intervalle fallen
(sekundäre Verteilungsliste). Die Daten werden also gruppiert. Dies ergibt die
Häufigkeitsverteilung. In der Regel versucht man die Klassengrenzen (oberen
und unteren Werte der Intervalle) so zu legen, dass keine Messwerte auf sie
fallen. Ist dies nicht möglich, so können die Messwerte jeweils zur Hälfte den
darüber- oder darunter liegenden Klassen zugeordnet werden.
In Berechnungen (s.u.) geht der Wert der jeweiligen Klassenmitte ein.
Die Klassenbreite darf nicht zu klein und nicht zu groß sein. Ist sie zu klein, so
fallen zu wenige Werte in eine Klasse und die Verteilung wird struppig oder ist
überhaupt nicht mehr zu erkennen. Ist sie zu weit, so kann die Verteilung nicht
mehr ausreichend aufgelöst werden. Hier eine Faustregel für eine geeignete
Klassenbreite:
             x max  x min
      b
           1  3,32 lg N

b: Klassenbreite; xmax, xmin: größte und kleinste Werte;

N: Umfang der Stichprobe; lg: Logarithmus.
Bei der relativen Häufigkeitsverteilung wird die Gesamthäufigkeit auf 1
normiert, d.h. es werden die Häufigkeiten (f) der jeweiligen Klasse (i) durch
den Stichprobenumfang (N) dividiert und die Häufigkeiten in der Regel in
Prozent angegeben:



       fri 
               fi   .        ( f i - absolute Häufigkeit)
               N

                               ( fri - relative Häufigkeit)

Bei der kumulativen Häufigkeitsverteilung werden bei gleicher
Klasseneinteilung die Häufigkeiten der einzelnen Klassen schrittweise
aufsummiert:

                                                                               14
Blickhan                                                                     Statistik I


              i
     fsi   frj  fr1  fr2 ... fri  fsi 1  fri
             j 1

                               ( fsi - kumulative Häufigkeit)

Der Wert fs,i gibt an, wie viel Prozent der Werte unterhalb des jeweiligen
Klassenmaximums zu finden sind ("weniger als"). Eine entsprechende Summe
lässt sich für "mehr als" aufstellen.


    BEISPIEL 3.2.1:

    Tabelle: Weitsprungweiten 13jähriger Schüler (Binbreite zu gering)

 Urliste   PrimärL    untere    obere       Strichl   Häufigkeit
           iste       Klasse    Klassen     iste
                      ngrenz    grenze
                      e


 Sprung    Sprung     Sprung    Sprung                abs    rela-   kum      kum
 weite     weite      weite     weite
                                                             tive    a        b
 [m]       [m]        [m]       [m]
 3,30      3,10       3,075     3,125       I         1      0,033   0,033    0,967
 3,40      3,15       3,125     3,175       II        2      0,067   0,100    0,900
 3,35      3,15       3,175     3,225       I         1      0,033   0,133    0,867
 3,75      3,20       3,225     3,275       II        2      0,067   0,200    0,800
 3,15      3,25       3,275     3,325       I         1      0,033   0,233    0,767
 3,25      3,25       3,325     3,375       II        2      0,067   0,300    0,700
 3,50      3,30       3,375     3,425       I         1      0,033   0,333    0,667
 3,65      3,35       3,425     3,475                 0      0,000   0,333    0,667
 3,55      3,35       3,475     3,525       III       3      0,100   0,433    0,567
 4,05      3,40       3,525     3,575       II        2      0,067   0,500    0,500
 3,35      3,50       3,575     3,625       I         1      0,033   0,533    0,467
 3,50      3,50       3,625     3,675       IIII      4      0,133   0,667    0,333
 3,80      3,50       3,675     3,725       II        2      0,067   0,733    0,267


                                                                                      15
Blickhan                                                                                                                                     Statistik I


 3,55                   3,55           3,725                   3,775                I                    1               0,033       0,767    0,233
 4,20                   3,55           3,775                   3,825                I                    1               0,033       0,800    0,200
 3,20                   3,60           3,825                   3,875                                     0               0,000       0,800    0,200
 3,50                   3,65           3,875                   3,925                II                   2               0,067       0,867    0,133
 3,70                   3,65           3,925                   3,975                                     0               0,000       0,867    0,133
 3,15                   3,65           3,975                   4,025                I                    1               0,033       0,900    0,100
 3,90                   3,65           4,025                   4,075                II                   2               0,067       0,967    0,033
 3,65                   3,70           4,075                   4,125                                     0               0,000       0,967    0,033
 4,05                   3,70           4,125                   4,175                                     0               0,000       0,967    0,033
 3,65                   3,75           4,175                   4,225                I                    1               0,033       1,000    0,000
 3,10                   3,80                                                        Sum                  30              1,000
 3,25                   3,90
 3,60                   3,90
 3,90                   4,00
 3,65                   4,05
 4,00                   4,05
 3,70                   4,20


 Histogramm - Binbreite: 0,05 m
                           4
                         3,5
                           3
           Häufigkeit




                         2,5
                           2
                         1,5
                           1
                         0,5
                           0
                               3,075

                                       3,175

                                               3,275

                                                       3,375

                                                                3,475

                                                                        3,575
                                                                                3,675

                                                                                         3,775

                                                                                                 3,875

                                                                                                             3,975

                                                                                                                     4,075

                                                                                                                             4,175




                                                          Sprungweite [m]




 Summenhistogramm


                                                                                                                                                      16
Blickhan                                                                                                                                  Statistik I



                        1,0

                        0,8
           Häufigkeit



                        0,6

                        0,4
                        0,2

                        0,0
                              3,075
                                      3,175
                                              3,275
                                                      3,375
                                                              3,475
                                                                      3,575
                                                                               3,675

                                                                                       3,775
                                                                                               3,875
                                                                                                       3,975
                                                                                                               4,075
                                                                                                                       4,175
                                                       Sprungweite [m]




    Tabelle: Weitsprungweiten 13jähriger Schüler;Binbreite nach Formel siehe 3.2
    (Binbreite = 0.18)



 untere                        obere                                    Strichliste                    Häufigkeit
 Klassengrenze                 Klassengrenze



 Sprungweite [m]               Sprungweite [m]                                                         absolute                relative       kumulative


 3,01                          3,19                                     III                            3                       0,100          0,100
 3,19                          3,37                                     IIIII I                        6                       0,200          0,300
 3,37                          3,55                                     IIIII                          5                       0,166          0,466
 3,55                          3,73                                     IIIII III                      8                       0,266          0,733
 3,73                          3,91                                     IIII                           4                       0,133          0,866
 3,91                          4,09                                     III                            3                       0,100          0,966
 4,09                          4,27                                     I                              1                       0,033          1,000
                                                                        Summe                          30                      1,000




 Histogramm - Binbreite: 0,18 m


                                                                                                                                                   17
Blickhan                                                                         Statistik I



                  10
   Häufigkeit


                   8
                   6
                   4
                   2
                   0
                      19

                               37

                                        55

                                                 73

                                                          91

                                                                   09

                                                                            27
                    3,

                             3,

                                      3,

                                               3,

                                                        3,

                                                                 4,

                                                                          4,
                  1-

                           9-

                                    7-

                                             5-

                                                      3-

                                                               1-

                                                                        9-
                   0

                          1

                                  3

                                           5

                                                    7

                                                             9

                                                                      0
                3,

                       3,

                               3,

                                        3,

                                                 3,

                                                          3,

                                                                   4,
                                        Sprungweite [m]



  3.3. Median, Modus und Mittelwert


Lagemaßzahlen quantifizieren die mittlere Lage der Werte auf Skalen. Die
häufigsten Maßzahlen sind
 der Mittelwert oder das arithmetische Mittel (x-quer)

                   1 N
                X   Xi        (mit N: Zahl der Werte, X: Variable)
                   N i1
 der Median einer Menge von Zahlen, die ihrer Größe nach geordnet sind, ist
der Wert in der Mitte oder das arithmetische Mittel der beiden Werte in der
Mitte. Im Histogramm befinden sich also zu beiden Seiten des Medians gleiche
Flächen.
Die Werte, die die Menge in vier gleiche Teile teilt, nennt man erstes zweites
und drittes Quartil (Q1,2,3). Es gibt feiner unterteilende Percentile.
Das 75 % Quantil gibt den Wert an, für den 75 % der Daten unterhalb
liegen.
 der Modus einer Menge von Zahlen ist der Wert, der am häufigsten
vorkommt.


                                                                                          18
Blickhan                                                           Statistik I




                                                 Modus
                                   Mittelwert
                                   Median
                          Q       Q             Q
                           1          2          3




        BEISPIEL 3.3.1:

    Tabelle eines (fiktiven) Hochsprungwettbewerbes:

 1,10              1,20             1,30                 1,60   1,60
 1,10              1,25             1,30                 1,60   1,70
 1,10              1,25             1,40                 1,60   1,90



Modus = 1,60; Median = 1,30; Mittelwert = 1,40



  3.4. Streuungsmaße

Streuungsmaße sind Maße für die Breite von Verteilungen.




                                                                            19
Blickhan                                                            Statistik I




Die Spannweite ist die Differenz zwischen der größten und der kleinsten Zahl
der Menge.

                               1 N
          Mittlere Abweichung | X i  X |
                               N i1
X-quer ist der Mittelwert. Die senkrechten Striche markieren die Beträge, lässt
man die Beträge weg, so gibt diese Summe immer Null.
Das gebräuchlichste Streumaß ist die Standardabweichung oder die mittlere
quadratische Abweichung (vgl. Normalverteilung):
                                    N
                                    ( Xi  X ) 2
                                   i1
 Standartabweichung:      s
                                         N 1
(N-1: durch den vorgegebenen Mittelwert sinkt die Zahl der Freiheitsgrade)
Das Quadrat der Standardabweichung wird als Varianz bezeichnet:

       Varianz = s2


    BEISPIEL 3.4.1:

    Tabelle und Problem aus 3.3.1 (s = 0,25)


                                                                             20
Blickhan                                                                                                  Statistik I


X       X-     (X-           X      X-M     (X-M)^2      X      X-     (X-    X       X-    (X-    X        X-    (X-
        M      M)^2                                             M      M)^2           M     M)^2            M     M)^2
1,10    -0,3   0,09          1,20   -0,2    0,04         1,30   -0,1   0,01   1,60    0,2   0,04   1,60     0,2   O,04
1,10    -0,3   0,09          1,25   -0,15   0,0225       1,30   -0,1   0,01   1,60    0,2   0,04   1,70     0,3   0,09
1,10    -0,3   0,09          1,25   -0,15   0,0225       1,40   0      0      1,60    0,2   0,04   1,90     0,5   0,25




Ergänzung zur Standardabweichung und Varianz:
In der Literatur findet man häufig auch bei gleichen Problemen zwei leicht
voneinander abweichende Berechnungsmodi.


                       N                                                 N
                       ( Xi  X )           2
                                                                         ( Xi   ) 2
                      i1                                               i1
         s                                                     s
                                 N 1                                             N
Erstere ist eine bessere Schätzung bei unbekannten, d.h. geschätzten Mittelwert.
Letztere setzt voraus, dass der Mittelwert der Grundgesamtheit bekannt ist.
Da dieses Problem wiederholt wieder auftaucht (z.B. Freiheitsgrade), soll an
dieser Stelle etwas ausführlicher darauf eingegangen werden. Im ersten Fall bei
geschätztem Mittelwert muss aus der gleichen Stichprobe  X i  der Mittelwert
geschätzt werden. Die Gleichung des Mittelwertes kann beispielsweise nach X1
aufgelöst werden:
                      N                              N
                1
          X
                N
                       X i  X1  NX   X i
                      i 1                       i2


Damit ist X1 kein unabhängiger Wert mehr und die Division durch N-1 liefert
bessere Ergebnisse. (Aber auch hier sind noch weitere Korrekturen möglich.)



       3.5. Schiefe und Kurtosis

Zusätzlich zur Lage und Breite von Verteilungen gibt es Maße für die
Symmetrie und Form.



                                                                                                                    21
Blickhan                                                           Statistik I


Je schiefer eine Verteilung ist ("skewness"), desto weiter ist der Modus vom
Mittelwert entfernt. Da der Abstand noch von der Breite der Verteilung
abhängt, wird mit Hilfe der Standardabweichung normalisiert:

                    X  Median
       Schiefe 
                        s
Verteilungen können unterschiedliche Wölbungen (Exzess oder Kurtosis)
aufweisen, sie können schlank (leptokurtisch) oder platt sein (platykurtisch).




Wir definieren jetzt zunächst eine Hilfsgröße. Das Moment r-ter Ordnung bzgl.
des Mittelwertes X-quer beträgt:
              N

             (X    i    X )r
      mr    i 1
                    N
Das Moment dritter Ordnung kann als Schiefemaß dienen:

             m3
      a3 
             s3
Wie bei der Varianz muss auch hier insbesondere bei kleinen Stichproben der
Freiheitsgrad bzw. die Zahl der zur erechnung freien Parameter berücksichtigt
werden. Die genaue Formel lautet damit:



                                                                            22
Blickhan                                                                              Statistik I


                                N

                    N           (X     i    X )3
      a3                       i 1
                                                     
             ( N  1)( N  2)           s3

Für eine Normalverteilung ist die Schiefe 0. Linksschiefe a3 < 0; Rechtsschiefe
a3 >0.
Das Moment vierter Ordnung als Maß für die Kurtosis:

                                m4
       Kurtosis: a4               3.
                                s4
(Vorsicht!! Unterschiede               in     der        Literatur   bzgl.   des   Bezugspunktes
Normalverteilung)
Unter Berücksichtigung der Schätzungen:

                  ( N  1) N         N
                                         ( X i  X )4 ( N  1) 2
      a4                            s 4  3 ( N  2)( N  3)
           ( N  1)( N  2)( N  3) i 1

Ein großes N ist für eine genaue Bestimmung notwendig. Die Kurtosis ist 0 bei
Normalverteilung. Sie ist >0 für eine schlanke Kurve und < 0 für eine breite
Kurve.


Für später: Aus dem Verhältnis der Schiefe oder Kurtosis zu deren
Standardfehler kann man abschätzen, ob die Abweichungen bedeutend sind.




                                                                                               23
Blickhan                                                           Statistik I




4. GRUNDLEGENDE VERTEILUNGEN


   4.1. Einfache Verteilungen



Bei einem brauchbaren Würfel muss die Wahrscheinlichkeit gleich verteilt sein,
d. h. es muss gleich wahrscheinlich sein eine 1, 2, 3, 4, 5 oder 6 zu würfeln.
Gemäß unserer Definition für Wahrscheinlichkeit (Kap. 3.1) beträgt die
Wahrscheinlichkeit eine 3 zu würfeln gleich:

            h günstig        würfel 3          1
       p                                  
            N möglich würfel 1,2,3,4,5 oder 6 6

                                    Wür fe l
                  P



                      1
                      6


                          1     2    3    4    5   6
                                                    Augenzahl



Die Wahrscheinlichkeit, eine 3 oder eine 4 zu würfeln, beträgt:
                                      1 1 2 1
                                    p   
                                      6 6 6 3
Schwieriger wird es beim "Lügenmäxchen". Dort kommt es darauf an, mit zwei
Würfeln bestimmte Kombinationen zu erreichen. Die Kombination 2 und 1 ist
ein "Mäxchen". Wie wahrscheinlich es ist, ein solches „Mäxchen“ zu
bekommen?

                                                                            24
Blickhan                                                               Statistik I


Hier muss zunächst die Zahl aller möglichen Fälle oder Kombinationen
ermittelt werden.


Würfel a:         1                       2       ..........       6




Würfel b: 1 2 3 4 5 6           1 2 3 4 5 6                    1 2 3 4 5 6

Da es für Würfel a und Würfel b jeweils 6 Möglichkeiten gibt eine Zahl zu
würfeln, erhalten wir insgesamt 36 mögliche Kombinationen: 6  6  6  36
                                                                         2


Damit erhält das „Mäxchen“ 2 aus 36 möglichen Kombinationen.
                                          2   1
Die Wahrscheinlichkeit beträgt also p      
                                          36 18

 ohne Berücksichtigung der Reihenfolge
Wäre es wichtig gewesen, auf welchem Würfel die 1 oder 2 erscheint, dann
                                1
wäre die Wahrscheinlichkeit p 
                                36

 mit Berücksichtigung der Reihenfolge
Man kann nun leicht extrapolieren, wie viele Möglichkeiten sich mit 3 Würfeln
ergeben ( 6  6  6  6 , Fundamentales Prinzip der Kombinatorik).
                       3


Nehme ich jetzt ein einfacheres Beispiel, z. B. 4 Karten, die mit unter-
schiedlichen Farben oder Buchstaben (a, b, c, d) markiert sind. Ich mische die
Karten und frage danach, wie wahrscheinlich es ist, die Karten in einer
bestimmten Reihenfolge auf den Tisch zu legen. Die gezogene Karte wird also
nicht wieder in den Stapel zurückgesteckt.




                                                                                25
Blickhan                                                                              Statistik I


      a                           b                    c                      d        I



    b c d                    a   c    d              a b   d               a b c       II



 c d b d b c              c d a d a c            b d a d a b            b c a c a b    III



d c d b c b             d c d a c a            d b d a b a         c b c a b a         IV



Jeder Weg von I nach IV durch den Entscheidungsbaum ist eine Kombination.
Die Gesamtzahl kann also in der Ebene IV abgezählt werden. Mit den
Verzweigungen von Ebene zu Ebene erhöht sich die Zahl multiplikativ.

                                                                allgemein
            Ebene I:                  4                          N
            Ebene II:                 4 3                       N (N - 1)
            Ebene III:                4  3 2                   N (N - 1) (N - 2)
            Ebene IV:                 4  3 2  1               N (N - 1)...(N – N + 1) = N!

Die Zahl der Permutationen (Anordnungen) von Dingen unter Beachtung der
Reihenfolge beträgt N!
Hätten wir lediglich zwei (r) Karten entnommen, so hätte es genügt, bis zur
Ebene II (r) den Entscheidungsbaum aufzuschreiben. Es wären dann also
4  3  12 Zustände möglich. Rechnerisch hätten wir diese Zahl wie folgt
ermitteln können:

                                             4! 4  3  2  1
                                     4P        
                                       2
                                             2!     2 1
Entnimmt man also N Gegenständen r, so ist die Zahl der möglichen
     Anordnungen:
                                                                           N!
                     Pr  N ( N  1)( N  2)( N  3)...( N  r  1) 
                 n
                                                                         N  r !
                                                                                               26
Blickhan                                                                        Statistik I


Vorsicht: 0! ist definiert gleich 1
Bereits das Würfelbeispiel hat das Problem der Wiederholung oder der
Reihenfolge aufgezeigt. Wenn ich jetzt 2 aus 4 auswähle, die Reihenfolge aber
für mich keine Rolle spielt, so stelle ich fest, dass sich natürlich die Zahl der
erfolgreichen Möglichkeiten verringert und zwar um die Zahl der möglichen
Anordnungen der ausgewählten Objekte. In unserem Beispiel wäre jetzt ab und
ba äquivalent. Ich muss durch 2! dividieren. Die Zahl der von uns
unterschiedenen Kombinationen beträgt jetzt

                                         4!      43
                                 4 C2              6
                                        2! 2!    2
Bitte prüfen Sie dies im Entscheidungsbaum nach.
Allgemein gilt also für r Gegenstände aus n ohne Berücksichtigung der
Reihenfolge und ohne zurückzulegen

                      N  N  1 ... N  r  1          N!           P
         N Cr                                                         N r
                                         r!             r ! N  r !    r!


Dies entspricht dem Binomialkoeffizienten.



Zur Gedankenstütze

                     1                                  1                           (a+b)o
                 1       1                           a + b                          (a+b)1
             1       2       1                     a2 + 2ab + b2                    (a+b)2
         1       3       3       1              a3 + 3a2b + 3b2a + b3               (a+b)3
     1       4       6       4       1        a4 + 4a3b1 + 6a2b2 + 4a1b3 + b4       (a+b)4




                                                                                         27
Blickhan                                                                                   Statistik I


Das PASCAL’sche Dreieck zur Bestimmung der Binominalkoeffizienten
N
  sprich: N über r
r 


                                                           r=0
                                                                    r=1
                                                                           r=2
                                                                                   r=3
                                                                                           r=4
                                                                                                 r =5




                                               0 
                                                
                                               0 
                                       1             
                                                         1
                                                     
                                       0             
                                                         1
                              2            2             2
                                                          
                              0            1             2
                      3            3            3             3
                                                               
                      0            1            2             3
             4            4            4             4            4 
                                                                   
             0            1            2             3            4 
Das PASCAL’sche Dreieck                   führt     auf         folgende      Eigenschaften        der
Binominalkoeffizienten:



                                                                                                    28
Blickhan                                                                 Statistik I


             N N     
 Symmetrie:        
             r   N r

                 N  1  N   N 
 Rekursivität:                 
                 r  1   r   r  1



Die allgemeine binomische Formel lautet damit:

           N  N 0  N  N 1 1     N  0 n n  N  k N k
(a  b)    a b    a b  ...    a b     a b
           N

          0       1             N       k 0  k 




   Ergänzung:
Diese Reduktion von erfolgreichen Ereignissen durch gleichartige Fälle gilt
natürlich allgemein. So ist die Anzahl der Permutationen von n Dingen, die aus
Gruppen von N1, N2 gleichen Dingen bestehen,

       N  n1  n2  ...
               N!
      P
           n1 !n2 !...



Zusammenstellung der kombinatorischen Figuren
Mit Hilfe des Urnenmodells stellen wir abschließend noch einmal die
verschiedenen kombinatorischen Figuren einheitlich zusammen:


 Ziehen von k                ohne Zurücklegen       mit Zurücklegen
 Kugeln aus n
                             (ohne Wiederholung)    (mit Wiederholung)
 Kugeln
 mit Berücksich-             Geordnete Stichprobe   Geordnete Stichprobe
 tigung der
                             ohne Zurücklegen vom   mit Zurücklegen vom

                                                                                  29
Blickhan                                                                     Statistik I


 Reihenfolge
                       Umfang k aus N                      Umfang k aus N
                       Elementen:                          Elementen:

                          N!                               Nk
                                  ;k  N
                       ( N  k )!                          Möglichkeiten.
                       Möglichkeiten.
                       Sonderfall: k=n
                       Permutation ohne
                       Wiederholung von
                       N Elementen:

                       PN  N ! Möglichkeiten.

 ohne Berücksich-      Ungeordnete Stichprobe              Ungeordnete Stichprobe
 tigung der
                       ohne Zurücklegen vom                mit Zurücklegen vom
 Reihenfolge
                       Umfang k aus N                      Umfang k aus N
                       Elementen:                          Elementen:

                       N                                  N  k  1
                        ; k  N                                    
                       k                                 k         
                       Möglichkeiten.                      Möglichkeiten.




Noch einmal Beispiele:
    Wie wahrscheinlich ist ein Treffer im Lotto?

                                           49!
Lösung: 6 aus 49 ohne Reihenfolge (              13983816 )
                                          6!43!

    Wie wahrscheinlich ist es 4 Asse aus einem Stapel von 52 Karten zu ziehen.

                                           52!
Lösung: 4 aus 52 ohne Reihenfolge (             =270725)
                                          4!48!

    Steigt die Wahrscheinlichkeit, wenn ich die gezogenen Karten immer wieder
    zurück in den Stapel stecke?

                                                                                      30
Blickhan                                                                    Statistik I


nein, im Gegenteil!
    Sie sollen aus einem Kader von 30 Personen eine 6 Personen starke Mannschaft
    aufstellen. Wieviele Möglichkeiten haben Sie?

                                         30!
Lösung: 6 aus 30 ohne Reihenfolge (            593775 )
                                        6!24!



  4.2. Binomialverteilung, Poissonverteilung, Normalverteilung


4.2.1. Binomialverteilung

(diskrete Verteilung, begrenzte Stichprobe aus begrenzter Grundgesamtheit)


Nähern wir uns der Binomialverteilung über ein Beispiel:
    BEISPIEL

    Wie wahrscheinlich ist es, bei zweimaligen Würfeln zuerst eine 6 und im zweiten
    keine 6 zu würfeln?

Die Gesamtwahrscheinlichkeit ist bei diesen unabhängigen Ereignissen gleich
dem Produkt der Schritte.

                                         1 5 5
                           pG  p1  p2   
                                         6 6 36
Wenn ich nicht die Reihenfolge festlege, kann ich auch zuerst keine 6 und dann
eine 6 würfeln. Damit beträgt die Gesamtwahrscheinlichkeit

                                            5 10
                                  pc  2     
                                           36 36
Wie groß ist die Wahrscheinlichkeit bei sechsmaligem (N) würfeln 2mal (x)
eine 6 (p) und 4mal (N - x) keine 6 (q) zu würfeln?
Unter Beachtung der Reihenfolge gilt:
                                                                                      31
Blickhan                                                                               Statistik I


                                                    2          62
                  1 1 5 5 5 5 1                    5
             pc                                        p x  q N x
                  6 6 6 6 6 6 6                    6
Sind andere Reihenfolgen gleichwertig, so muss ich wieder die Zahl der
möglichen Anordnungen in Betracht ziehen. Diese betragen:

              N        N!       6!
                                     15 (Kombinatorik)
               x  x !( N  x)! 2! 4!
Die Gesamtwahrscheinlichkeit für dieses Ereignis beträgt also:

                            N
                  f  x     p x (1  p) N  x (Binominalverteilung)
                            x

                                                                     6 2
                                      6  1   5 
                                                        2

           im Beispiel: f ( x  2)   2  6   6 
                                         
                                                                             0,201

Es sei p die Wahrscheinlichkeit, dass ein Ereignis bei einem beliebigen
einzelnen Versuch eintreten wird (Erfolgswahrscheinlichkeit) und q = 1-p die
Misserfolgswahrscheinlichkeit.
Die Wahrscheinlichkeit, dass das Ergebnis X-mal bei N Versuchen eintreten
wird ist gegeben durch:

                                                  N!
              p( X) N C X p X q N X                     p X q N X
                                              X!( N  X )!

    BEISPIEL:

    Die Wahrscheinlichkeit bei 6 Würfen einer echten Münze 2-mal Kopf zu erhalten
    ist:

                            2     62
                      1  1       6! 1 2 1 62 15
           p(2) 6 C2                                       
                      2  2      2!4! 2  2      64


                                                                                                32
Blickhan                                                                     Statistik I


Die Verteilung wird Binomialverteilung genannt, weil sie den aufeinander
folgenden Ausdrücken im binomischen Lehrsatz entspricht (s.o.):

               (q  p) N  q N  N C1q N 1 p N C2 q N2 p 2 ... p N


     BEISPIEL:(GEBURTSTAGSPROBLEM)

     Wie groß ist die Wahrscheinlichkeit, dass im Hörsaal zwei Studenten am gleichen
     Tag Geburtstag haben? (im Hörsaal befinden sich 100 Studenten)



Die Wahrscheinlichkeit, dass ein Student an einem bestimmten Tag Geburtstag
hat beträgt:
                                              1
                                      p
                                             365
dass er an diesem Tag nicht Geburtstag hat beträgt:

                                      1 364
                     q  1 p  1                 (Gegenereignis)
                                     365 365
Wie groß ist jetzt die Wahrscheinlichkeit, dass zwei Studenten am gleichen Tag
Geburtstag haben?

                     100 2 100 2 100!  1   364 
                                                                 2           98

            P (2)     p  q                    
                    2              98! 2!  365  365
             4950  7 ,5  10 6  0,76
             0,028


Einige Eigenschaften der Binomialverteilung:
  Mittelwert                                       µ = Np
  Varianz
                                                     2  Npq
                                                                                       33
Blickhan                                                                     Statistik I


 Standardabweichung
                                                     Npq
 Momentenkoeffizient der Schiefe                           q p
                                                   3 
                                                              
 Momentenkoeffizient der Kurtosis                                 1 6qp
                                                   4  3 
                                                                   2


    BEISPIEL 4.2.1.4:

    Bei 100 Würfen einer echten Münze ist die mittlere Anzahl von Kopf gleich
    100*0,5 gleich 50. Dieses ist die erwartete Anzahl von Kopf bei 100 Würfen einer
    Münze. Die Standardabweichung ist gleich 5.

Binominalverteilungen für n = 8 und verschiedene p-Werte:




                                                                                       34
Blickhan                                                                      Statistik I




4.2.2. Poissonverteilung

(diskrete Verteilung, seltenes Ereignis)

Setzen wir Np = und lassen bei konstantem  die Zahl N beliebig wachsen (N
 unendlich) so geht die Binomialverteilung in die Poissonverteilung über.
Diese gilt also für eine große Zahl von Ereignismöglichkeiten aber geringer
Ereigniswahrscheinlichkeit (seltene Ereignisse, z.B. radioaktiver Zerfall,
Rosinen im Brot etc.) Für die Poissonverteilung gilt:

                                              X e 
                              p( X)                    (X = 0,1,2,3,4,...)
                                                 X!



Herleitung der Poissonverteilung aus der Binomialverteilung (für
interessierte Studenten):

Die Gleichung für die Binomialverteilung lautet:

                       N!
       p( X )                   p X (1  p ) N  X
                  X ! N  X  !
      mit      X,N 

           
Für   p       gilt:
           N




                                                                                       35
Blickhan                                                          Statistik I


                                                      NX
                                  
                                       X
                    N!
      p( X )                   1  
               X ! N  X  !  N   N 
                              
                                             N

                               1
             N!         1 X  N
                                 
                          
        X ! N  X  ! N X    
                                    X

                             1  
                              N
                            
                                       N

                           1  
             N!          X    N
                      
        X ! N  X  !     N 
                                  X




Für N >> oder kleines p gilt:
            
                     N

      lim 1    e
      N 
            N

und damit

                    N!             e X
      p( X )                 X

               X ! N  X !     N 
                                        X




Für die gleiche Bedingung (N >> ) gilt

      N 
                X
                     NX


und für die dann auch erfüllte Bedingung N >> X gilt

          N!             N   N  1   N  2  ... 1
                
       N  X !  N  X    N  X  1   N  X  1 ... 1
       N   N  1   N  2  ...   N  X  1
       NX

Hieraus folgt:




                                                                           36
Blickhan                                                                        Statistik I



                                     N K X e X  X e X
                          p( X )             
                                                           q.e.d.
                                     X!    NX     X!




     BEISPIEL 4.2.2.1: GEBURTSTAGSPROBLEM

      1
p               n = 100    0,274
     365

       0,274 2 e 0, 274
p(2)                     0,028       (vgl. oben)
           1 2


     BEISPIEL 4.2.2.2:

     Autos auf einem sehr wenig befahrenen Straßenstück:    x       sind die Autos/Tag,
                                        x
     Unterteilung in n Intervalle    p      Wahrscheinlichkeit für Auto/bestimmtes
                                        n
     Zeitintervall.   x  pn  


 Mittelwert                                           µ=
 Varianz
                                                      2  
 Standardabweichung
                                                       
 Momentenkoeffizient der Schiefe                            1
                                                      3 
                                                             
 Momentenkoeffizient der Kurtosis                                     1
                                                      4  3 
                                                                      

     BEISPIEL 4.2.2.3:

                                                                                          37
Blickhan                                                                       Statistik I


     Die Wahrscheinlichkeit, dass ein Patient die Injektion eines gewissen Serums
     nicht verträgt ist 0,001. Gefragt ist nach der Wahrscheinlichkeit, dass von 2000
     Patienten a) genau drei, b) mehr als zwei Patienten die Injektion nicht vertragen?

Lösung:

a) P(3Pat. vertr. die Inj. nicht) = 23e-2/3! = 0,18
b) P(mehr als zwei vertr. Injektion nicht) = 1 - P(0vertr. Inj nicht) - P(1 vertr.
Inj. nicht) - P(2 vertr. Inj. nicht) = 0,323



Poissonverteilung für n = 12 und verschiedene           - Werte:




4.2.3. Normalverteilung (stetige Verteilung)


                                                                                          38
Blickhan                                                          Statistik I


Die wichtigste und häufigste Verteilung in der Statistik ist die
Normalverteilung. Sie wird durch die Gauss'sche Glockenkurve repräsentiert:

                                                  1 (X  )2
                                    1         
                                                  2 2
                     Y  f ( X)       e
                                   2
: Mittelwert; : Standardabweichung; π = 3,1416; e = 2,71828

(Da der Mittelwert  und die Standardabweichung  der
Grundgesamtheit in der Regel nicht bekannt sind, werden sie durch
die Schätzgrößen x und s der Stichprobe ersetzt (s.u.).)




Bei der Normalverteilung handelt es sich nicht um eine diskrete, sondern um
eine stetige Verteilung und die obige Formel repräsentiert nicht die absolute
Wahrscheinlichkeit, sondern die Wahrscheinlichkeitsdichte (Dimension: 1/X).
Erst die Fläche unter der Kurve zwischen zwei Werten für X ergibt eine
Wahrscheinlichkeit, eben die Wahrscheinlichkeit, dass in diesem Intervall ein
Ereignis auftritt oder, dass bei einer Messung Werte in diesem Intervall
auftreten. Die Fläche wird über Integration errechnet (P ist dimensionslos).

                                                                           39
Blickhan                                                         Statistik I


                                               b
                         P( a  X  b)   f ( X )dX
                                               a

Die Gesamtfläche beträgt entsprechend 1.


Häufigkeitsverteilung bei zunehmenden Messumfang N:




Schon bei geringem Messumfang erkennt man ein zentrales Dichtemaximum.
Je weiter die Messwerte von diesem mittleren Wert entfernt liegen, desto
geringer ist ihre Auftretenshäufigkeit. Erhöht man den Stichprobenumfang
immer weiter, so werden die Klasseneinteilungen immer feiner. Das feiner und
feiner gestufte Histogramm nähert sich dann immer mehr einer Glockenkurve
an. Bei unendlich großen Stichprobenumfang aus einer normalverteilten
Grundgesamtheit geht das Histogramm in die stetige Glockenkurve der
Normalverteilung über.


   Die standardisierte Normalverteilung

    BEISPIEL:

    Häufigkeitsverteilung einer Apfelmassenstichprobe:




                                                                          40
Blickhan                                                                                   Statistik I
   absolute Häufigkeit H


                           25
                           20
                           15
                           10
                           5
                           0
                                120   127   134    142   148    155     163   169   177
                                                  Apfelmasse x in [g]


Da die Parameter ( x , s ) für jedes Problem andere Werte annehmen, muss die
Normalverteilung für jeden Fall neu berechnet werden. Dabei werden die
Stichprobenparameter über die z – Transformation so umgeformt, dass sich
immer für den Mittelwert                      x  0 und s = 1 ergeben.


 z – Transformation:
Die dimensionsbehafteten Werte x der Zufallsvariablen X werden in der z –
Transformation in die dimensionslosen
z –Werte umgerechnet. Die Formel lautet:

                                                               xx
                                                         z
                                                                s
dadurch ergibt sich:

                                                                xx 0
                                             x x:         z       0
                                                                 s  s
                                                            x sx s
                                      x  x  s:         z        1              usw.
                                                               s   s
 Standardisierte Normalverteilung: Die Werte der Zufallsvariablen X sind in z
– Werte transformiert. Beachte die veränderte Dimension.

                                                                                                    41
Blickhan                                                          Statistik I



                                                z2
                                  1
                         f (z )     e          2
                                  2




 Konstruktion der bestangepassten standardisierten Normalverteilung:
Wenn man den Kurvenverlauf der bestangepassten Normalverteilung mit Hilfe
der standardisierten Normalverteilung konstruieren will, müssen die x – Werte
zuerst in z – Werte transformiert werden.




                                                                           42
Blickhan                                                                            Statistik I




(Vorsicht: In dieser Kurve aus der Literatur liegen Maximum und Mittelwert (x=0) nicht an der
gleichen Stelle. Dies ist ein Fehler. Der Mittewert muss aber nicht in der Mitte des Bins liegen.)

Um die theoretische Beobachtungsdichte zu berechnen, muss f(z) durch die
Standardabweichung s geteilt und mit der Klassenbreite b multipliziert werden.
Die theoretische absolute Beobachtungsdichte ergibt sich durch weitere
Multiplikation mit dem Stichprobenumfang N. Dies erlaubt den Vergleich mit
der absoluten Häufigkeit.

                                                          1
 theoretische absolute Häufigkeit H =            f ( z)   b  N
                                                          s
Diese Berechnung stellt eine leicht zu handhabende Näherung dar. Genauer ist
es,    die   tabellierten   Flächenanteile     unter   der     standardisierten
Normalverteilungskurve zu benutzen. Zunächst werden die Klassengrenzen des
betrachteten Bins z-transformiert ( X  z ). Dann für diese Grenzen die
zugehörigen Flächen aus der Tabelle abgelesen und subtrahiert. Hieraus ergibt
sich die Wahrscheinlichkeit für das Eintreffen eines Ereignisses innerhalb der
vorgegebenen Grenzen. Um Häufigkeiten zu erhalten, müssen diese
Wahrscheinlichkeiten noch mit der Zahl der Messwerte n multipliziert werden.


  Mittelwert                                                     µ
  Varianz
                                                                  2
  Standardabweichung                                              
                                                                                              43
Blickhan                                                                              Statistik I


  Momentenkoeffizient der Schiefe                                        3  0
  Momentenkoeffizient der Kurtosis                                       4  3
                                                      0,4
                                                 0,35
                                                      0,3
                                                 0,25
                                                      0,2
                                                 0,15
                                                      0,1
                                                 0,05
                                                        0
                    -4       -3       -2       -1           0    1   2    3       4
                                                      68,27 %
                                                       95,49 %
                                                      99,73 %


Bedeutung:
Die Summe der Häufigkeiten von vielen unabhängigen, beliebig verteilten
Zufallsvariablen ist etwa normalverteilt. Hängt also ein Ereignis von vielen
unabhängigen aber gleich wirksamen Faktoren ab, so ist es also in der Regel
normalverteilt.




Herleitung der Approximation der Gauß’schen Normalform aus der
Binomialfunktion (für interessierte Studenten):

Die Binomialverteilung wird beschrieben durch:
                       N!
       p( X )                   p X (1  p ) N  X
                  X ! N  X  !

Für p  0,5 gilt:



                                                                                               44
Blickhan                                                                            Statistik I


                                        X      NX
                    N!       1 1
      p( X )                   
               X ! N  X !  2   2 
                                N
             N!        1
                       
        X ! N  X  !  2 
In natürlichen Logarithmen gilt:
      ln( p( X ))  ln  N !  ln  X !  ln   N  X !  N ln 2

In der Umgebung vom Mittelwert = pN=N/2 soll die Funktion nach Taylor
entwickelt werden:
Taylorreihe:
                               h           h2                    hn  n
      f ( a  h)  f ( a )       f a     f   a   ...     f  a   ...
                               1!          2!                    n!




Hierfür benötigen wir in ausreichender Näherung die erste und die zweite
Ableitung :

       d
         ln( p( X ))  0  ln X  ln  N  X   0
      dX
(Vorsicht Kettenregel) wobei
      d ln  X !
                     ln X
           dX

Die zweite Ableitung lautet:
       d2                  1  1
            ln( p( X ))   
      dX  2
                           X NX

Damit gilt in der Umgebung des Mittelwertes:




                                                                                             45
Blickhan                                                                                                                       Statistik I


                                                                            1  d ln  p  X      1  d ln  p  X   
                                                                                                          2

             
       ln p  X  X   ln p  X                                         
                                                                            1! 
                                                                                                    
                                                                                                             dX 2
                                                                                                                          
                                                                                    dX           X 2! 
                                                                                                                        X
                                                                                                                          
                 
        ln p  X   ... 
             X           N      N 
       ...             ln  ln     ...
              1           2      2 
                              0

           X  4    2
       ...     
            2 N
                N
Für  2  Npq  gilt also
                4

                                                                            X 2
             
       ln p  X  X   ln p  X                                      2 2
oder
                                                             X 2

       p  X  X   p  X  e
                                                         
                                                             2 2
                                                                    .
Die Bestimmung von p  X  ist über die Bedingung möglich, dass die
Gesamtwahrscheinlichkeit, also die Gesamtfläche des Integrals, 1 sein muss:
                                              x2

       1  p  X  0  e
                                          
                                              2 2
                                                     dx  p  0  2 2
                              

                            1
        p  0 
                           2
Hierbei haben wir die Summenbildung von X=0 bis  durch eine
Verschiebung auf X=0 und die Integration von -  bis  ersetzt.
                                                                                                   N
Nimmt man die entsprechenden Werte  2  Npq                                                        und setzt sie in die
                                                                                                   4
Bernoulliformel ein, so findet man mit wachsendem N eine immer bessere
Übereinstimmung.




                                                                                                                                        46
Blickhan                                                             Statistik I




5. SCHLIEßENDE STATISTIK


   5.1. Stichprobe, Grundgesamtheit und Standardfehler

Ziel der schließenden Statistik (analytischen Statistik) ist es, aufgrund von
Stichproben verlässliche Aussagen über Grundgesamtheiten zu machen, ohne
die Grundgesamtheit untersucht zu haben. In der Fachliteratur werden die
Maßzahlen für Stichproben, die Stichprobenfunktionen, und für die
Grundgesamtheiten, die Parameter, durch unterschiedliche Symbole
gekennzeichnet.


  Kennwert                            Stichproben-       Parameter
                                      funktionen
  Anzahl der Werte                    N, n               
  Arithmetisches Mittel                x                 
  Standardabweichung                  s                  
  Varianz                             s2
                                                         2
  Anteil (re. Häufigkeit)             p                  
Der Induktionsschluss von der Stichprobe auf die Grundgesamtheit lässt nie
Sicherheiten, sondern nur Wahrscheinlichkeiten zu. Das Prinzip der
Stichprobentheorie kann darin gesehen werden, das Risiko bei Schlüssen von
den Statistiken der Stichprobe auf die Parameter der Grundgesamtheit zu
quantifizieren.
Zieht man mehrere Stichproben aus einer Grundgesamtheit, so führt jede
Stichprobe zu etwas anderen Werten für die Stichprobenfunktionen. Je größer
die Stichprobe ist, desto zuverlässiger wird der Schätzwert, d.h. desto geringer
wird beispielsweise die Abweichung des gemessenen Mittelwertes von dem der
Grundgesamtheit.
Ist die Grundgesamtheit unendlich, bzw. werden die Stichproben zurückgelegt,
so errechnet sich die Standardabweichung des Mittelwertes, der Standardfehler
nach:

                                                                              47
Blickhan                                                                       Statistik I



                                                   s
                                        sx 
                                                   N
Für genügend große Stichproben (N>30) sind die Mittelwerte normalverteilt.


                   Stich-     Stich-
  Grund-                                 Stich-        Stich-    Stich-
                   probe      probe
  gesamtheit       1          2          probe 3       probe 4   probe 5
  1,00                        1,00       1,00                    1,00
  2,00             2,00       2,00                     2,00
  3,00                        3,00       3,00          3,00
  4,00             4,00       4,00                               4,00
  5,00             5,00       5,00
  6,00                                   6,00                    6,00
  7,00             7,00                  7,00          7,00      7,00
  8,00             8,00                                          8,00
  9,00                                   9,00          9,00
  10,00                                                10,00


                                                                           Mittelwert
  Mittelwert ()   Mittelwert ( x )                                        (x )          sx
  5,50             5,20       3,00       5,20          6,20      5,20      4,96          1,18
  Standard-
  abweichung
  ()              Standardabweichung (s)
  3,03             2,39       1,58       3,19          3,56      2,77      2,70
                   Mittlerer Fehler des Mittelwertes ( s x )
                   1,07       0,71       1,43          1,59      1,24      1,21



Natürlich ist in diesem Beispiel die Grundgesamtheit nicht normalverteilt. Es ist
aber offensichtlich, dass selbst hier der mittlere Fehler des Mittelwertes eine
gute Schätzung liefert.



                                                                                        48
Blickhan                                                                Statistik I




 Stichprobenfunktion          Standardfehler       Bemerkungen
 Mittelwert                          s             Gilt für große und
                              sx                  kleine Stichproben und
                                     N             selbst wenn
                                                   Grundgesamtheit nicht
                                                   normalverteilt ist. Für
                                                   abweichende Formen
                                                   muss die Schiefe
                                                   einbezogen werden.
                                                   (Spezialliteratur)
 Standardabweichung                  s             gilt nur, wenn
                              ss                  Grundvert. etwa
                                     2N            normalverteilt ist
 Median                                            gilt nur, wenn
                                             
                              sMed  s             Grundvert. etwa
                                             2N    normalverteilt ist

 Varianz                                           gilt nur, wenn
                                             2
                              ss 2  s   2         Grundvert. etwa
                                                   normalverteilt ist
                                             N

Konfidenzintervall oder Vertrauensbereich:
Mit den oben angegebenen Funktionen können wir die Wahrscheinlichkeit
berechnen mit welcher der Mittelwert oder die Standardabweichung innerhalb
bestimmter Grenzen liegt. Wir wissen beispielsweise, dass der gemessene
Mittelwert normalverteilt um den Mittelwert der Grundgesamtheit mit einer
Standardabweichung von s x streut. Teilt man die Abszisse wiederum in
relative Koordinaten z ein, so kann man für verschiedene z die
Wahrscheinlichkeit angeben, für die ein gemessener Mittelwert innerhalb eines
bestimmten Vertrauensbereiches liegt:




                                                                                 49
Blickhan                                                                            Statistik I



                                          0,4
                                      0,35
                                          0,3
                                      0,25
                                          0,2
                                      0,15
                                          0,1
                                      0,05
                                            0
               -4        -3    -2    -1         0      1        2     3     4
                                          68,27 %
                                           95,49 %
                                        99,73 %
Niveau 99,73        99        98     96    95,45           95        90     80     68,27    50
  %
   z    3,00        2,58      2,33   2,05       2,00       1,96     1,645   1,28   1,00    0,6745




  5.2. Entscheidungstheorie, Hypothesen und Signifikanz

Bei dem Versuch Entscheidungen zu fällen, ist es nützlich, Annahmen oder
Vermutungen über die in Frage kommenden Grundgesamtheiten zu machen.
Annahmen die richtig oder falsch sein können werden als statistische
Hypothesen bezeichnet. Häufig wird eine Hypothese nur aufgestellt um sie zu
widerlegen. Wichtig ist sich zu merken, dass es hierbei nie Sicherheiten geben
kann, sondern nur Wahrscheinlichkeiten. Die Frage also ist, welche
Wahrscheinlichkeit bei einer Entscheidung einen Fehler zu machen in Kauf
genommen wird (Irrtumswahrscheinlichkeit ).
Das Risiko, das für Fehlentscheidungen in Kauf genommen wird, nennt man
das Signifikanzniveau. Es liegt im Ermessen des Untersuchenden das
Signifikanzniveau festzulegen. In der Regel werden 5 % akzeptiert.
Wird eine Hypothese abgelehnt obwohl sie richtig ist, so nennt man dies Fehler
erster Art. Wird die Hypothese angenommen, obgleich sie eigentlich abgelehnt
werden müsste, so nennt man dies Fehler zweiter Art.

                                                                                             50
Blickhan                                                                     Statistik I


     BEISPIEL:

     Um die Hypothese, dass eine Münze echt ist, zu testen, befolgt man folgende
     Entscheidungsregel (1): Man nehme die Hypothese, dass sie echt ist, an, wenn die
     Anzahl von Kopf in einer einzelnen Stichprobe von 100 Würfen zwischen 40 und
     60 einschließlich liegt, (2) andernfalls verwerfe man die Hypothese.

     (a) Man bestimme die Wahrscheinlichkeit, dass die Hypothese verworfen wird,
     wenn sie tatsächlich zutrifft und interpretiere das Ergebnis graphisch.

Lösung: Gemäß der Binomialverteilung ist die gesuchte Wahrscheinlichkeit
gegeben durch
              40     60             41     59                 60     40
        1  1          1  1              1  1 
100 C40      100 C41     ... 100 C60    
          2      2              2      2                  2      2

Mittelwert und Standardabweichung dieser Verteilung betragen:

  N  50 und   Npq  5
Da allerdings n p und n q beide größer als 5 sind, kann die Normalverteilung als
gute Näherung gelten und zur Berechnung dieser Summe verwendet werden.
Hier ist es dann allerdings geschickter, die Grenzen zwischen die geradzahligen
Ereignisse zu legen. Wir wissen die Fläche zwischen den Grenzen gibt die
Wahrscheinlichkeit an. In relativen Einheiten betragen diese Grenzen
      (39,5-50)/5 =-2,10 bzw (60,5-50)/5=2,10
Aus der Tafel entnimmt man eine Fläche von 0,9642, also eine
Wahrscheinlichkeit von 96 %. Diese Wahrscheinlichkeit ist recht hoch. Es
bleibt aber ein Risiko von (1-0,96), dass bei der Stichprobe außerhalb 40 und
60 mal Kopf liege. Ich würde dann behaupten die Münze sei falsch, obgleich
ich in Wirklichkeit dieses Ergebnis mit einer echten Münze nur zufällig
erhalten habe (Fehler erster Art).
In diesem Beispiel war es gleichgültig, ob die Werte größer oder kleiner waren,
es handelte sich um einen zweiseitigen Test. Fragt man nur, ob die Werte
größer (kleiner) sind, so ändern sich die die Grenzen (z-Werte) für die
Irrtumswahrscheinlichkeit.


                                                                                        51
Blickhan                                                             Statistik I


Hinweis: Nun kann es aber auch sein, dass wir einen Fehler zweiter Art
begehen, d.h. dass wir zeigen, dass H0 richtig ist, obgleich die Hypothese
eigentlich falsch ist. Wenn beispielsweise die tatsächliche Wahrscheinlichkeit
von Kopf  = 0,7 ist.




 Entscheidung              Tatsächlicher Zustand
                           H0 ist richtig            H0 ist falsch
 H0 wird beibehalten       Richtige Entsch.          Falsche Entscheidung
                           p=1-                     Fehler 2. Art
                                                     p=ß
 H0 wird abgelehnt und     Falsche Entscheidung      Richtige Entscheidung
 H1 wird angenommen        Fehler 1. Art             p=1-
                           p=




                                                                              52
Blickhan                                                                    Statistik I




6. SCHLIEßENDE STATISTIK


   6.1. Wichtige Prüfverteilungen

Häufig wird die Frage gestellt, ob eine Stichprobe sich signifikant von einem
Erwartungswert oder von einer anderen Stichprobe unterscheidet. Zur Prüfung
dieser Frage gibt es eine Reihe unterschiedlicher statistischer Funktionen. In
der folgenden Tabelle werden die in dieser Vorlesung behandelten
Prüfverfahren aufgelistet.
Ziel              Stichprobe   Skala       weitere            Test
                                           Vorraussetzungen
Lage, zentrale    ni > 10      intervall   unabhängige        Student’s t
Tendenz (z.B.                              Stichprobe,
Mittelwert)                                normalverteilt,
                                           1 = 2 und
                                           1 ≠ 2
                  ni > 10      intervall   abhängige          Student’s t
                                           Stichprobe,        f. abh. Stichproben
                                           normalverteilt,
                               ordinal     unabhängig         Mann Witney U
                               ordinal     abhängig           Wilcoxon
mehr als 2       ni > 2        ordinal     unabhängig         Kruskal-Wallis
Stichproben
Vergleich von    ni > 10       intervall   normalverteilt     F
Varianzen
Vergleich von    Hi > 5        nominal                        2, Chi2
Verteilungen
auch
Kontingenztafeln
                               nominal                        Kolmogorov-Smirnov
hier 2x2                       nominal                        Fisher-Exact
Kontingenztafel
Zusammenhang      ni > 10      intervall                      Regressionskoeffizient
                  Hi > 5       nominal                        Kontingenzkoeffizient
In Statistik II folgen eine Reihe weiterer sehr starker, aber auch
rechenaufwendige Verfahren, die eine rechnergestützte Verarbeitung erfordern.



                                                                                       53
Blickhan                                                            Statistik I


Parameterfreie   Tests:    Verteilung,    die    durch       Mittelwert     und
Standardabweichung nicht ausreichend bestimmt ist.
Unabhängige Stichproben: Beispielsweise Personen zweier Stichproben nicht
identisch
Abhängige Stichproben: z.B. Personen identisch



   6.2. Der Students t-Test

In diesem statistischen Prüfverfahren wird der Mittelwert einer Stichprobe mit
dem Mittelwert einer zweiten Stichprobe oder der Grundgesamtheit verglichen.
Zunächst wird ein Prüfquotient eingeführt, der als Maß für den Unterschied
dienen kann. Dies ist bei der vorgegebenen Fragestellung die Differenz der
Mittelwerte bezogen auf die Streuung derselben.
a) Prüfung gegen den Mittelwert der Grundgesamtheit:

               x             N (x  )
      tber         
                 sx               s

b) Vergleich zweier Stichprobenmittelwerte.
               x1  x2
      tber 
                 sD

Der erwartete mittlere Fehler des Mittelwertes der beiden Stichproben lässt sich
aus der Varianz der Grundgesamtheit  errechnen:

                2        2         1 1
      x                           
                 n1       n2         n1 n2

Allerdings kennen wir nicht, der Wert muss aus den gemessenen Varianzen
der Stichproben geschätzt werden:




                                                                             54
Blickhan                                                                                                            Statistik I


                                                     n1                      n2


                                   1 
                                        (x                          x1 )   ( xi 2  x2 ) 2
                                                                        2
     1                                                       i1
                                                                                                   1 1  (n1  1) s12  (n2  1) s2 2
sx                                               i 1                    i 1
                                                                                                   
      n1 n2                                                        n1  n2  2                   n1 n2       n1  n2  2


Die Formel nimmt an, dass die Varianzen nahezu gleich sind.
-2: da zwei Mittelwerte aus der Stichprobe geschätzt werden. Von den
Messwerten, die die Verteilung beschreiben sollen, sind 2 nicht mehr frei
wählbar. Die Zahl n1+n2 - 2 =  nennt man Freiheitsgrad. Für den Spezialfall
gleichgroßer Stichproben vereinfacht sich die Berechnung zu:

                                            x1  x 2
       tber                                                            n
                                            s12  s2 2
Hierbei ist n der Umfang einer Stichprobe.
Komplexer wird die Berechnung für den Fall dass die Varianzen ungleich sind.

                          x1  x2
       tber 
                               2                 2
                          s1                s2
                               2
                                                2
                          n1                n2

Dieser Ansatz sieht zunächst einfacher aus. Komplizierter gestaltet sich jetzt aber die
Berechnung des Freiheitsgrades:

                                   1
        
                                           (1  c )
                      2                                   2
                  c
                                   
             n1  1                         n2  1

mit
                           2
                      s1
                           2
                      n1
       c         2                    2
             s1                s2
                  2
                                      2
             n1                n2

Dies ist natürlich bereits ein ziemlicher Aufwand mit dem Taschenrechner. Ein PC leistet hier
unschätzbare Dienste.


                                                                                                                             55
Blickhan                                                            Statistik I


Bei gepaarten Stichproben geht in den Prüfkoeffizienten direkt der Mittelwert
der Differenzen d und der mittlere Fehler des Mittelwertes dieser Differenzen
s d in die Berechnungen ein:
                                        _
                      d                 d n
       t gepaart        
                      sd            n
                                              _
                                                 
                                                     2

                                   
                                   i 1 
                                          di  d 
                                                 
                                          n 1
Noch einmal: Der Prüfquotient t ist in seiner Struktur dem z-Wert ähnlich. Aber
dort stehen Abstände von Werten zum Mittelwert und Standardabweichungen
im Quotienten während hier die Abstände der Mittelwerte und der (geschätzte)
mittlere Fehler des Mittelwertes im Quotienten auftreten.
Die der Prüfgröße t zuzuordnende Wahrscheinlichkeitsdichte entspricht für
große  der Normalverteilung. Dies bedeutet, dass man dann auch die Tabelle
der Normalverteilung benutzen kann, z entspricht dann t. Für kleine
Stichproben gibt es jedoch erhebliche Abweichungen zwischen t-Verteilung
und Normalverteilung.




Abb.: f(t,) für  = 1 und  = ∞




                                                                             56
Blickhan                                                                      Statistik I


Je kleiner die Zahl der Werte ist, desto flacher ist die Verteilung und desto
größer muss der Prüfquotient sein, damit die Irrtumswahrscheinlichkeit gering
bleibt.
Mit anderen Worten: Je kleiner die Zahl der Werte, desto größer muss die auf
die Standardabweichung der Mittelwerte bezogene Differenz sein, wenn das
Ergebnis statistisch absicherbar sein soll. Auch hier ist darauf zu achten, ob ein
einseitiger oder zweiseitiger Test durchgeführt werden soll. Die
Flächenabschnitte,      d.h.     die      einem     Intervall      zuzuordnenden
Wahrscheinlichkeiten sind tabelliert oder im Rechner gespeichert.




     BEISPIEL 6.2.1:

     Bei einer Untersuchung über die Vitalkapazität vierzehnjähriger Jungen ergaben
     sich für Schüler, die nur am Schulsport teilgenommen haben, bzw. für solche, die
     darüber hinaus in einem Verein Sport getrieben haben, die folgenden Werte:



Stichprobe S1                                Stichprobe S2
Nur Schulsport                               Schul- und Vereinssport
n1 = 113                                     n2 = 172
x 1 = 3480 ml                                x 2 = 3650 ml
s1 = 712 ml                                  s2 = 766 ml

Frage: Ein erster Vergleich zeigt, dass Jungen, die im Verein Sport betreiben,
eine höhere Vitalkapazität besitzen. Ist dies ein statistisch signifikantes
Ergebnis?
Die folgenden Schritte sind bei allen zukünftigen statistischen Tests
einzuhalten.
Schritt 1:




                                                                                        57
Blickhan                                                            Statistik I


Nullhypothese (H0): Die beiden Stichproben entstammen der gleichen
Grundgesamtheit. (Ein möglicher Unterschied ist zufällig, d.h. der beobachtete
Unterschied ist statistisch nicht signifikant.)
Alternativhypothese (H1): Die Jungen, die im Verein trainieren, besitzen eine
größere Vitalkapazität. Die Stichproben stammen aus zwei unterschiedlichen
Verteilungen, wobei die Vitalkapazität der Jungen im Verein größer sein soll.


Schritt 2:
Auswahl des Signifikanzniveaus und der Testrichtung (ein- oder zweiseitig).

Wir nehmen eine Irrtumswahrscheinlichkeit von  = 5 % in Kauf und
verwenden einen einseitigen Test: Ich will nicht nur wissen ob ein Unterschied
besteht, sondern ob der Vereinssport mit einer Vergrößerung der
Lungenkapazität einhergeht.


Schritt 3:
Errechnung des Prüfquotienten und der Freiheitsgrade
Anwendung der obigen Formeln ergibt:
s = 745,09
sDiff = 90,226
t = -1,884

 = 283
Bei diesem hohen Wert besteht kaum noch Unterschied zur Normalverteilung.
Es kann also in der t-Tafel also bei  = ∞ abgelesen werden oder in der f-Tafel
(Normalverteilung) bei z = t.


Schritt 4:

Ablesen des theoretischen Prüfquotienten bei  = 5% und  = ∞. t0,05 = 1,645

                                                                              58
Blickhan                                                              Statistik I




Schritt 5:
Vergleich des errechneten und des abgelesenen Prüfquotienten:
t0,05 < |tber|

Also ist der Unterschied signifikant. Die Irrtumswahrscheinlichkeit für eine
Ablehnung der Nullhypothese aufgrund des Unterschieds der Mittelwerte ist
geringer als 5 %. (Für den größeren t-Wert ist die Fläche unter der
Wahrscheinlichkeitsdichte kleiner.)


Schritt 6:
Formulierung des statistischen Ergebnisses:
Der beobachtete Unterschied zwischen den Vitalkapazitäten ist mit einer
Irrtumswahrscheinlichkeit von 5 % nicht zufällig. Jungen, die auch am
Vereinssport beteiligt sind haben eine größere Vitalkapazität.

Vorsicht: Hätten wir die Signifikanzschranke auf 2,5 % gesetzt, so wäre
der Unterschied nicht mehr signifikant gewesen. Wir hätten den Unterschied
also nicht mehr statistisch absichern und die Nullhypothese verwerfen können.
Dies bedeutet natürlich nicht, dass die Gleichheit jetzt plötzlich mit 97,5 %
gesichert ist (≠ 1 - )! Die t-Verteilung gibt hierüber keine Auskunft. Dies ist
ein sehr, sehr häufiger Fehler.
Zum einseitigen und zweiseitigen Test: Hätte ich nur danach gefragt ob sich die
Vitalkapazität unterscheidet, hätte ich also nicht die Information in die Frage
hineingesteckt, dass die Schüler mit zusätzlichem Sport eine höhere
Vitalkapazität besitzen, so wären sowohl kleinere als auch größere Mittelwerte
möglich gewesen. Die Irrtumswahrscheinlichkeit von 5 % hätte sich dann
sowohl auf den positiven als auch auf den negativen Ausläufer verteilt
(zweiseitiger Test). Dann entfällt auf jeden Teil je 2,5 %. In der angehängten
Tabelle muss ich dann bei t0,975 nachschauen. Wie zu erwarten brauche ich
angesichts der erhöhten Unsicherheit beim zweiseitigen Test auch einen
erhöhten t-Wert, also einen größeren Unterschied zwischen den Mittelwerten.



                                                                               59
Blickhan                                                                   Statistik I


   6.3. Der F-Test

Die Anwendung des t-Tests ist an bestimmte Voraussetzungen gebunden:
1. Unabhängigkeit der Stichproben
2. Intervallskalierte Variablen
3. Normalverteilung
4. Bei einfacher         Formulierung       auch    gleiche    Varianzen     in    den
Grundgesamtheiten.
Die Punkte 3 und 4 müssen vor Anwendung des Tests geprüft werden.
Zunächst zum Vergleich der Streuungen der Grundgesamtheiten, die ja mit
einem gewissen Irrtum aus den gemessenen Streuungen geschätzt werden.
Der zugehörige Prüfquotient ist wie folgt definiert:

         s12
       F 2         wobei s1
                               2
                                    s2 2
         s2
Entsprechend der Definition des Prüfquotienten ist die zugehörige Verteilung
positiv definit und schief-symmetrisch. Die für die statistische Entscheidung
erforderlichen kritischen F-Werte hängen von der jeweiligen Anzahl der
Freiheitsgrade der beiden Stichproben ab. Also die H0, die Varianzen sind nicht
ungleich, wird abgelehnt, wenn
      F ≥ F

Es gibt also Tabellen für unterschiedliche Kombinationen von 1 und 2 (i =
ni-1)

Die Alternativhypothese muss angenommen werden, während sie beim t-Test angenommen
werden darf. (Es wird nicht die Gleichheit sondern die Nicht-Ungleichheit der Varianzen
geprüft.)




   6.4. 2-Test

                                                                                    60
Blickhan                                                              Statistik I


Der 2-Test ist ein wichtiges, vielfältig einsetzbares Prüfverfahren. Er dient
zum Vergleich empirischer Verteilungen mit theoretischen Verteilungen, also
auch zur Prüfung auf Normalverteilung. Bei nominalskalierten Variablen
(Klassen etc.) können mit der 2-Verteilung Fragestellungen nach
Unterschieden unterschiedlicher Stichproben hinsichtlich eines Merkmales
beantwortet und Unterschiede zwischen den einzelnen Merkmalen innerhalb
einer Stichprobe geprüft werden.
Der Prüfquotient dieser Verteilung lautet
             k
              ( H bi  H ei )2
       
        2

         i 1       H ei

Hbi: berechnete Häufigkeiten; Hei: erwartete Häufigkeiten der Klasse i eines
Histogramms.

Der Freiheitsgrad () berechnet sich aus der Anzahl von Klassen (k)

        k 1.
(Die letzte erwartete Häufigkeit kann berechnet werden, wenn wir die restlichen
k-1 Werte kennen.)
Werden m Parameter der Grundgesamtheit geschätzt (bei Normalverteilung m =
2; bei Poissonverteilung m = 1), so betragen die Freiheitsgrade

        k  m 1




                                                                               61
Blickhan                                                                      Statistik I




Abb.: 2-Verteilung für  = 2,4,6,10; Zahlen auf Abszisse: 5,10,15,20



Wahrscheinlichkeitsdichte der 2-Verteilung
                       1         1 2
                         ( 2)  
       Y  Y0     ( )
                    2 2
                               e 2
Für ber2 ≥ ,2 Ablehnung der Nullhypothese (Übereinstimmung der
Verteilungen).


      BEISPIEL 6.4.1:

      Würfel in 420 Versuchen folgende Häufigkeiten:



  I         Hbi      Hei       (Hbi-Hei)       (Hbi-Hei)2        (Hbi-Hei)2/Hei

  1        60        70        -10             100               100/70
  2        75        70        5               25                25/70
  3        71        70        1               1                 1/70
  4        69        70        -1              1                 1/70


                                                                                       62
Blickhan                                                             Statistik I


  5        66     70       -4           16              16/70
  6        79     70       9            81              81/70
  Sum.     420                                          2 = 224/70 = 3,2



H0: Verteilung entspricht der eines Würfels mit πei = 1/6

Prüfquotient: 2 = 3,2

Freiheitsgrad:  = 5

20,05;5 = 11.1

Da der berechnete Prüfquotient kleiner als der kritische Wert ist, wird die
Nullhypothese beibehalten. Theoretische und empirische Verteilungen sind
nicht signifikant unterschiedlich.
Vorsicht! Für Erwartungswerte kleiner gleich 5 muss das Verfahren verbessert
werden, da sonst auch kleine Abweichungen sich enorm in dem berechneten
Prüfquotienten niederschlagen. Ausweg: Zusammenfassen von Klassen bis
Häufigkeit von 5 erreicht ist. Damit ändern sich die erwarteten und gemessenen
Häufigkeiten und die Klassenzahl. Ist dies nicht möglich muss auf andere Tests
(z.B. Fisher s.u.) zurückgegriffen werden.
Bei Rechnerprogrammen wird heutzutage häufig bei der Prüfung auf
Normalverteilung auf den 2-Test verzichtet und es werden lediglich
Formparameter (Schiefe etc.) bestimmt. SPSS benutzt den leichter
handhabbaren Kolmogorov-Smirnov-Test (s.u. und Statistik II).

Kontingenztafeln: Der 2-Test kann zur Prüfung von Stichprobenunterschieden
bei nominalskalierten Variablen eingesetzt werden.
In einem Beispiel wird für jede Sportart nur eine Häufigkeit gemessen. Diese
können in einer 1 x k Matrix zusammengestellt werden. Man kann von einer
solchen Tabelle leicht zu einer größeren Matrix (h Zeilen und k Spalten)
kommen, indem man zum Beispiel in den Schulklassen zwischen Mädchen und
Jungen differenziert (2 x k Matrix). Eine solche größere Matrix nennt man
Kontingenztafel. Die Zahlen in den Feldern werden Felderhäufigkeiten und die
gesamte Häufigkeit jeder Zeile oder Spalte werden Randhäufigkeiten genannt.


                                                                              63
Blickhan                                                            Statistik I


Schauen Sie sich auch das ausgeführte einfache Beispiel (6.4.2) einer
Vierfeldertafel weiter unten an.
Der Prüfquotient wird nun wie vorher durch Summation über alle
Felderhäufigkeiten gebildet. Man erhält h.k Summanden, n sei die
Gesamthäufigkeit. Die Anzahl der Freiheitsgrade beträgt hier

       = (h-1)(k-1) bzw. = (h-1)(k-1)-m,
wenn m Parameter geschätzt werden.
Bei der Yates'schen Stetigkeitskorrektur werden von den Beträgen der Differenzen
jeweils 0,5 subtrahiert. Dies führt im Bereich kleiner Häufigkeiten zu einem
verbesserten, immer kleineren Prüfquotienten.

Kontingenzkoeffizient: Ein Maß für den Grad der Beziehung, des
Zusammenhangs oder der Abhängigkeit von Klassifizierungen in einer
Kontingenztafel ist durch

                2
      C
              2  n

gegeben und wird Kontingenzkoeffizient genannt. Je größer C,
desto größer ist der Zusammenhang. Ist h = k so gilt:

                  k 1
       Cmax 
                    k

Für den Kontingenzgoeffizienten wird hier keine Prüfung auf Signifikanz
angeboten. (Vergl. Korrelationskoeffizient).




                                                                             64
Blickhan                                                                   Statistik I


    BEISPIEL 6.4.2

    Zwei Gruppen, A und B, die jeweils aus 100 Personen bestehen, leiden an einer
    Krankheit. Man gibt Gruppe A ein Heilmittel, aber nicht Gruppe B
    (Kontrollgruppe). Es stellt sich heraus, dass in Gruppe A 75 in B 65 Personen
    wieder gesund werden. Man prüfe die Hypothese, dass das Mittel bei der Heilung
    der Krankheit hilft.

Lösung: Als Schätzung für den durchschnittlichen Anteil an Gesundeten erhält
man:

         (75  65)
                   100  70
           200
Generell erhält man die erwarteten Häufigkeiten aus:
      Hei = Spaltensumme * Zeilensumme / Gesamtsumme

Gesamtsumme: N.
Aufstellung der zugehörigen Kontingenztafeln:
beobachtet:
 gemessen            Genesung         keine            Summe
                                      Genesung
 Gr. A               75               25               100
 mit Heilm.
 Gr. B               65               35               100
 ohne Heilm.
 Summe               140              60               200



 erwartet            Genesung         keine            Summe
                                      Genesung
 Gr. A               70               30               100
 mit Heilm.
 Gr. B               70               30               100
 ohne Heilm.
 Summe               140              60               200


                                                                                     65
Blickhan                                                            Statistik I




      2 = 2,38

Bezüglich der Freiheitsgrade ist sofort ersichtlich, dass ich bei gleichen
Randfeldern nur eine einzige Zahl zu benennen brauche, dann sind die übrigen
festgelegt.

      =1

hierfür ist 20,05 = 3,84. H0 kann nicht verworfen werden.

Wie ist nun der Kontingenzkoeffizient einzuschätzen? Wenn                    die
Klassifizierungen vollkommen voneinander abhängen erhält man:


                     Genesung       keine          Summe
                                    Genesung
  Gr. A              100            0              100
  mit Heilm.
  Gr. B              0              100            100
  ohne Heilm.
  Summe              100            100            200



Ohne Heilmittel krank und mit gesund. Bei Annahme vollständiger
Unabhängigkeit wären alle Felder mit 50 besetzt. (100*100/200 = 50)

Hieraus ergeben sich 2 = 200 und ein maximaler Kontingenzkoeffizient von C
                ( k 1)
= 0,7071=
                    k
Für das obige Beispiel erhält man C = 0,1084. Der Zusammenhang ist also
niedrig. Er hat aber an dieser Stelle lediglich beschreibenden und Charakter und
stellt keine Prüfgröße dar.




                                                                             66
Blickhan                                                                        Statistik I


  6.5. Weitere Prüfverfahren

Die bisher dargestellten Prüfverfahren gehören zu den wichtigsten. Es gibt eine
Reihe weiterer Prüfverfahren, die insbesondere bei weniger großen Stichproben
und anderen fehlenden Voraussetzungen relevant werden.



6.5.1. Kolmogorov-Smirnov-Anpassungstest:


Der 2-Test ist für kleine Stichproben und geringe Wahrscheinlichkeiten
ungeeignet. Hier kann der Kolmogorov-Smirnov-Anpassungstest aushelfen. Mit
diesem Test können auch direkt individuelle Messungen (nur zwei
Häufigkeiten) bearbeitet werden. Der Test reagiert auch auf Unterschiede in der
Form der Verteilungen und wird bei SPSS zur Prüfung auf Normalverteilung
eingesetzt.
    BEISPIEL 6.5.1:

    An fünf verschiedenen Wochentagen wird die Nutzung eines Spielgerätes
    beobachtet. Geprüft werden soll, inwiefern die beobachtete Nutzung von einer
    Gleichverteilung abweicht.




 Tag                   1            2           3         4       5      Summe
 Nutzung               2            1           8         12      4      27
 Gleichvert.           5,4          5,4         5,4       5,4     5,4    27



 kumulative rela-          kumulativ relative         Differenz         größte Differenz ist
 tive Verteilung der       Verteilung der                               Prüfgröße
 Befunde                   Erwartungen
 2/27                      5,4/27                     3,4/27
 3/27                      10,8/27                    7,8/27            D = 0,288
 11/27                     16,2/27                    5,2/27
 23/27                     21,6/27                    1,4/27
 27/27                     27/27                      0



                                                                                          67
Blickhan                                                                     Statistik I




D0,05, 25 = 0,27 ≤ Dber = 0,288



=> Nullhypothese wird verworfen, die Nutzung ist unterschiedlich.


Ein anderer Test für kleine Stichproben ist der Fisher-Exact-Test. Er ist von
großer Bedeutung, da er wie sein Name schon verrät ein exakter Test ist. Wenn
er zur Verfügung steht und machbar ist, dann ist er anderen Tests vorzuziehen.
Für größere Stichproben ist er sehr rechenintensiv. Hier liefert die Statistik
numerische Näherungen (vgl. SPSS).


    BEISPIEL 6.5.2:

    Wir vergleichen in einer Kontingenztafel die Zahl der Sportverletzungen bei zwei
    verschiedenen Sportarten:

                     Verletzung              keine Verl.          Summe

Sportart A           8                       5                    13

Sportart B           2                       5                    7

Summe                10                      10                   20

Bei derart niedrigen Häufigkeiten (2) kann kein 2-Test durchgeführt werden.
Es kann auch nichts mehr sinnvoll zusammengefasst werden. Bestimme nun
alle Fälle, bei welchen bei gleichen Randsummen noch stärkere Unterschiede
zwischen den Feldern auftreten.
Original           weiterhin                           algebraisch


8     5            9      4              10       3           A        B
2     5            1      6              0        7           C        D

                                                                                       68
Blickhan                                                                     Statistik I


               N!
Es gibt                  Möglichkeiten die jeweiligen Zellfrequenzen zu beobachten.
           A! B !C ! D !
Die Zahl der Möglichkeiten in der eine Vierfeldertafel mit gleichen
Randhäufigkeiten auftreten kann beträgt

       N  N                    N!                    N!          
                                                                .
       A  B  A  C    A  B ! C  D !   A  C ! B  D ! 
                                                                     

Die Wahrscheinlichkeit ist als Quotient aus der Zahl der gewünschten und der
Zahl der möglichen Ereignisse beträgt also:


                    2( A  B)! (C  D)! ( A  C )! ( B  D)! .
               p
                               N ! A! B ! C ! D !

In unserem Beispiel gelten für die gemessene und die zwei Möglichkeiten mit
den größeren Unterschieden:
      p1 = 0,2926; p2 = 0,0542; p3 = 0,0031

      pges= p1 + p2 + p3 = 0,3499

Die Wahrscheinlichkeit, dass diese Unterschiede rein zufällig auftreten ist
deutlich größer als 5 %. Damit unterscheiden sich die Verletzungsrisiken nicht
signifikant.
Je mehr Verfahren man kennenlernt, desto größer wird das Dilemma für das
jeweilige Problem das richtige Prüfverfahren auszuwählen. Als Regel gilt:
Es wird das Prüfverfahren eingesetzt, das die meisten der zur Verfügung
stehenden Informationen nutzt.



6.5.2. Vorzeichentest und Wilcoxon-Vorzeichen-Test

Vergleicht man direkt Wertepaare (abhängige Stichproben), so können
Unterschiede im Median (Lage) mit dem Vorzeichentest und dem Wilcoxon-
Test geprüft werden. Als parameterfreies Prüfverfahren ist dieser Test das
Gegenstück zum parametrischen t-Test für abhängige Stichproben (s.o.).

                                                                                      69
Blickhan                                                                          Statistik I




      BEISPIEL 6.5.3:

      Bei zwei Fußballspielern (A,B) werden in 7 Begegnungen die Zahl der
      Ballberührungen in einer Halbzeit festgestellt. Es wird die Frage gestellt, ob einer
      der Spieler eine signifikant höhere Berührungshäufigkeit hat.




  Begegnung            A               B            Vorzei-
                                                    chen
  1                    20              6            +
  2                    15              9            +
  3                    25              5            +
  4                    16              16           0
  5                    9               6            +
  6                    8               9            -
  7                    9               8            +


Vorzeichentest:
Die Zahl der gültigen Vergleichswerte n = 6 ; A = B wird weggelassen; Zahl
der Ausnahmen A<B: x = 1
Nach der Tabelle ist hierfür p6,1 = 0,109. Beim zweiseitigen Test verdoppelt
sich dieser Wert und ist deutlich größer als 0,05. Damit kann die Nullhypothese
nicht verworfen werden.


Wilcoxon-Test für gepaarte Stichproben:
Wir greifen auf das gleiche Beispiel zurück:


  Begeg-       A           B      Diffe-        Rang d.        Vorzei-
  nung                            renz                         chen
                                                Diff.
  1            20          6      14            5              +
  2            15          9      6             4              +

                                                                                             70
Blickhan                                                          Statistik I


 3          25      5      20         6             +
 4          16      16     wegl.
 5          9       6      3          3             +
 6          8       9      -1         1,5           -
 7          9       8      1          1,5           +


Bilde die Ränge des Absolutbetrages der Differenzen. Die kleinste Differenz
erhält den kleinsten Rang. Gleiche Differenzen bekommen einen
Durchschnittsrang.
Ordne jedem Rang das Vorzeichen der Differenz zu.
Bilde die Summe (T) der Ränge mit dem selteneren Vorzeichen. (Zur T-
Verteilung siehe weiter unten).
Ablehnung der Nullhypothese wenn T< T;N also:

Für Tber= 1,5 > T0,05;6 Tafelmax = 0. Damit weichen die Werte nicht
signifikant voneinander ab. Auch dieser Test kann also keinen Unterschied
belegen. Damit wäre hier ein Unterschied nur dann nachzuweisen, wenn bei
einer Stichprobengröße von N das negative Vorzeichen nicht auftauchen würde.
Für ein höheres T wäre der Unterschied noch geringer.
Die Beurteilung des Signifikanzniveaus bleibt erhalten. Das heißt p=0,06 wäre
nicht Signifikant. In welcher Richtung sich die Prüfgröße verschieben muss
hängt von der Konstruktion des Tests ab. Während beim t-Test die Signifikanz
mit erhöhtem Prüfquotienten sich verbessert gilt hier das umgekehrte.
Wie beim Student’s t-Test gibt es auch hier einseitige und zweiseitige Tests.
Natürlich macht ein einseitiger Test wenig Sinn, wenn der Hypothese bereits
die Vorzeichenverteilung widerspricht. Das wäre so ähnlich wie wenn ich die
Alternativhypothese aufstellen würde, dass ich nach dem Training weiter
springe als vor dem Training, aber die Differenzen im Mittel negativ wären,
d.h. die Leute hätten (z.B. wegen Übertrainings) an Sprungkraft verloren. Vor
diesem Hintergrund machen die Hypothese und der einseitige Test keinen Sinn.
In der Tabelle des Wilcoxon-Tests halbieren sich die Signifikanzniveaus für
den einseitigen Test. Die Tabelle enthält keine Werte für p = 0.1 und damit
auch nicht für den einseitigen Test für p=0.05!



                                                                           71
Blickhan                                                                                              Statistik I


Für große Stichproben (n > 8) kann eine z-Transformation wie folgt erfolgen:
                                 N ( N  1)
                            T
              T                    4
         z           
                          N ( N  1)(2 N  1)
                                   24

Diese Formel nutzt z.B. SPSS.
Nachtrag zur Testlogik: Es ist offensichtlich, dass hier keine intervallskalierbare Variablen
mehr notwendig sind, es genügt, dass die Variablen rangskaliert sind. Die Summe der Ränge
in der fünften Spalte beträgt:

         N  N  1       6 7
                                  21
              2            2

Damit ist die maximal mögliche Summe eines Vorzeichens ±21. Im ausgeglichenen Fall
wäre die Summe der positiven und negativen Ränge W etwa 0.

Nehmen wir jetzt der Einfachheit erst einmal an, dass wir nur N = 3 Begegnungen untersucht
hätten. Dann wären folgende Ränge und Rangsummen W möglich gewesen:



 Ränge

 1   2    3    W      T

 +   +    +    6      0

 -   +    +    4      -1

 +   -    +    2      -2

 +   +    -    0      -3

 -   -    +    0      +3

 -   +    -    -2     +2

 +   -    -    -4     +1

 -   -    -    -6     0                  Verteilung der Rangsummen W für N= 3, 4, 5. Zahl der Kombinationen: 2N.


                                 1 1
Im Falle von N = 3 ist p(T  0)    0.25 . Man sieht also, wie man wieder durch
                                 8 8
Kombinatorik zu Wahrscheinlichkeiten kommt und es ist augenfällig, dass sich die


                                                                                                                   72
Blickhan                                                                        Statistik I


                                                                        N  N  1 2 N  1
Verteilung für größere N der Normalverteilung annähert ( W  0; W                           ).
                                                                                 6

Ohne Beweis entnimmt man leicht der Tabelle, dass der Bezug der T-Verteilung auf einen
                              N  N  1
Mittelwert von Null durch T             erfolgen kann und der Zahlenwert für den mittleren
                                  4
                                                           1 N  N  1 2 N  1
Fehler des Mittelwertes (Streumaß) durch Halbierung                               gewonnen
                                                           2          6
werden kann.




6.5.3. Mann-Witney-U-Test:

Kann man die Werte zweier unabhängiger, also nicht gepaarter Stichproben der
Größe nach ordnen und sind die Stichproben klein, so kann der Mann-Whitney-
U-Test weiterhelfen. Auch dieses Verfahren ist parameterfrei, erfordert also
keine Information über Mittelwerte und Standardabweichung.


      BEISPIEL 6.5.3:

      Intelligenztest bei Männer und Frauen:



  Männer/Frauen            geordnete       Rang
                           Daten
  F                   90                   1
  F                   95                   2
  M                   98                   3
  M                   101                  4
  F                   110                  5,5
  M                   110                  5,5
  F                   115                  7
  M                   118                  9
  F                   118                  9
  F                   118                  9
  M                   120                  11

                                                                                               73
Blickhan                                                           Statistik I


 M                      121                           12
 M                      125                           13,5
 M                      125                           13,5
 M                      129                           15
 F                      139                           16
 Rangsumme F            R1 =                          49,5
 Rangsumme M            R2 =                          87,5



Die für die jeweilige Stichprobe (Stichprobengrößen             n1=7,    n2=9)
kleinstmögliche Rangplatzsumme beträgt
                                   n1 (n1  1)
      R1,min  1  2  ..  n1                 28
                                        2

                                   n2 (n2  1)
      R2,min  1  2  ..  n2                 45
                                        2

Hieraus berechnet sich die Prüfgröße
      U1ber = R1 - R1,min = 49,5-28 = 21,5

      (U2= R2 - R2,min wobei U1 + U2 = n1 n2

      bei U1 = U2 = n1 n2/2 Gleichverteilung).

U0,05;9;7= 12 < 21,5

Die Nullhypothese wird verworfen, wenn der berechnete U-Wert kleiner oder
gleich dem kritischen Wert U(a; m,n) aus der Tabelle ist.
=> Kein signifikanter Unterschied zwischen Männer und Frauen.
Es ist offensichtlich: In diesem Fall wäre ein kleiner Wert der Prüfgröße
notwendig um anzuzeigen, dass signifikante Unterschiede auftreten. Der
kleinstmögliche Wert liegt bei 0 nämlich dann, wenn in unserem Beispiel zuerst
die Frauen und dann die Männer aufgelistet werden.
Dieses Zahlenbeispiel ist natürlich dennoch chauvinistisch und zu Ihrem Trost
frei erfunden.


                                                                            74
Blickhan                                                                  Statistik I


Für n2 > 20 ist auch hier eine z-Transformation möglich.

                         n1 n2
          U                             U
       z                 2
                n1n2 (n1  n2 1)
                        12

6.5.4. Kruskal-Wallis-Test

Dies ist eine Erweiterung des U-Tests für mehr als zwei Stichproben (Prüfung
der Signifikanz mehrerer unabhängiger Stichproben hinsichtlich ihrer zentralen
Tendenz, durch den festgestellt wird, ob die Stichproben aus derselben
Grundgesamtheit stammen oder lediglich zufällig voneinander abweichen, vgl.
Varianzanalyse in Statistik II).
Voraussetzung: mindestens ordinal- bzw. rangskalierte Variablen. Die Daten
aller k Stichproben werden in eine Rangordnung gebracht, und dann werden die
Rangplatzsummen (Ri) der einzelnen Stichproben verglichen. Die Prüfgröße
lautet:
             12        k
                           Ri 2         
       H              n  3  ni  1 
          N  N  1 i 1  i            

Enthalten alle Gruppen mindestens jeweils drei Beobachtungen, so ist der Wert
H ungefähr 2-verteilt mit k – 1 Freiheitsgraden.

Falls einige Rangplätze mehrmals vergeben sind, erfolgt eine Korrektur:
        H korr  CH
mit

                r                   
                m

                       i
                           3
                                ri
       C  1   i 1
               N3  N
wobei m die Zahl der übereinstimmenden Ränge betrifft.



Beispiel 6.5.4:
Haltungsnoten (1 bis 6) in 3 Übungsgruppen.

                                                                                   75
Blickhan                                                Statistik I



                   Rangsortierte
Urliste            Liste
Gruppe Note        Gruppe Note
A         3        B           1
A         4        A           2
A         3        B           2
A         6        B           2
A         2        A           3
A         3        A           3
B         2        A           3
B         3        B           3
B         2        B           3
B         1        C           3
B         5        C           3
B         3        A           4
C         5        C           4
C         6        B           5
C         4        C           5
C         5        C           5
C         3        A           6
C         3        C           6




RA = 21, RB = 16; RC = 26, → Hber = 5,8 (ohne Korrektur);
Für  = k-1 = 2 ergibt die 2-Tabelle (p = 0,05) 2v=2; 0.05 =
5,99. Damit sind die Wertungen in den Gruppen nicht
signifikant unterschiedlich.




                                                                 76
Blickhan                                                           Statistik I




7. ABHÄNGIGE STICHPROBEN, KORRELATION


Wie bereits mehrfach angedeutet, ist ein häufiges Problem der Statistik die
Untersuchung der Abhängigkeit verschiedener beschreibender Parameter. Gibt
es beispielsweise einen Zusammenhang zwischen Sprungweite und
Körpergröße? Auch für die Beschreibung gibt es eine Reihe klassischer
Verfahren, zu welchen auch die bereits bei der Beschreibung des 2-Tests
behandelte Kontingenz gehört. Allerdings gilt der Kontingenzkoeffizient für
nominalskalierte Variablen, während die Korrelation, je nach Definition
mindestens rangskalierte Variablen voraussetzt.



  7.1. Methode der kleinsten Quadrate ("curve fitting")

Misst man in einem Experiment die Sprungweite und die Körpergröße, so wird
man sehen, dass zwar größere Menschen hier einen Vorteil haben, aber wenn
der größere Mensch dick ist, wird ihm das nicht weiter helfen. Derart komplexe
Zusammenhänge verlangen komplexere statistische Verfahren, die aber hier
nicht betrachtet werden sollen. Auf jeden Fall werden die Weiten für eine
bestimmte Körpergröße in großem Umfang streuen. Dies wird im
Streudiagramm augenfällig.
Versucht man nun die Abhängigkeit der Werte formal, d.h. mit einer Gleichung
zu beschreiben, so entsteht das Dilemma, durch die Punktwolken Linien ziehen
zu müssen. Je nach Art des Zusammenhanges können diese Linien
unterschiedlichen Funktionen entsprechen, z.B. Geraden, Polynome
unterschiedlicher Ordnung, Hyperbeln, Exponentialkurve etc.. Ein
mathematisch sauberes Verfahren bietet hier die Methode der kleinsten
Quadrate. Hierbei wird durch die Punkteschar mit Hilfe einer gewählten
Funktion eine Kurve gelegt und für jeden Punkt die quadratische Abweichung
berechnet.
Als beste Kurve oder beste Anpassung wird die Kurve ausgewählt, bei der die
Summe der quadratischen Abweichungen minimal ist ("least square fit").



                                                                            77
Blickhan                                                                   Statistik I


Betrachten wir eine Punktmenge {xi,yi} aus einer Messung. Durch diese Menge
legen wir eine Gerade. Für jeden Stützwert xi erhalten wir also einen Wert auf
der Geraden

      yiG  a0  a1 x i
Die Summe S der quadratischen Abweichung (zwischen den Messpunkten und
den dazugehörigen Punkten auf der Geraden) beträgt dann

S  (a0  a1 x1  y1 ) 2  (a 0  a1 x 2  y2 )2 ...(a0  a1 xn  yn ) 2
Diese Summe ist minimal, wenn die partiellen Ableitungen nach a 0 und a1 null
sind. (Bei der partiellen Ableitung wird lediglich nach der gewählten Variablen
differenziert, die anderen Variablen gelten als Konstanten.)

S
      2 0  a1 x1  y1 )  (a0  a1 x 2  y2 ) ...(a0  a1 x n  yn ) 0
         (a
 a0
S
      2 a0  a1 x1  y1 ) x1  (a0  a1 x 2  y2 ) x2 ...(a0  a1 x n  yn ) x n  0
         (
 a1
Hieraus folgen durch Zusammenfassung der entsprechenden Terme die
Gleichungen für a0 und a1:

             na0  a1  x i   yi  0
                          i         i

             a0  x i  a1  xi 2   x i yi  0
                  i            i           i

Dies bedeutet, dass jetzt die Summen konstante Faktoren sind, wohingegen die
Größen a0 und a1 die Variablen darstellen, die als Unbekannte auftreten, und
nach welchen das Gleichungspaar aufgelöst werden muss.
Es lässt sich also die richtige, bestangepasste Gerade, die Regressionsgerade,
eindeutig bestimmen:




                                                                                     78
Blickhan                                                           Statistik I


                                          
              yi  xi 2   x i  x i yi 
              i  i         i  i           
      a0                                      2
                                            
                           n  x i 2   xi 
                             i          i 


                                     
             n  xi yi    x i  yi 
                i        i  i 
      a1                                  2
                                      
                     n  xi 2   x i 
                       i         i 

Formal einfachere und schnellere Berechnungsvorschriften ergeben sich aus der
Kenntnis des Korrelationskoeffizienten (s.u.):

               sy
      a1  r        ; a0    y  a1 x
               sx
Diese Zusammenhänge sind von allgemeiner Bedeutung. Sie bedeuten nämlich
einmal, dass der Anstieg der Geraden mit dem Korrelationskoeffizienten
zusammenhängt, aber nicht mit ihm identisch ist. Der Korrelationskoeffizient
entspricht dem Anstieg, wenn vorher die Variablen mit Hilfe der z-
Transformation normalisiert wurden. Umgekehrt kann man bei bekannten
Korrelationskoeffizienten mit Hilfe der Standardabweichungen der Variablen
den Anstieg der bestangepassten Geraden berechnen. Die zweite Gleichung
zeigt an, dass die bestangepasste gerade durch den Mittelwert der Punktwolke
geht. Nach der z-Transformation liegt dieser Mittelwert im Ursprung.
In unserer Herleitung haben wir die Koeffizienten für y(x) berechnet. Die
Rechnung kann entsprechend für x(y) durchgeführt werden. Dies ist nicht
Dasselbe, denn es werden unterschiedliche Abweichungen – einmal in y und
einmal in x – betrachtet.
Die Standardabweichung für vorausgesagten Einzelwert an der Stelle x beträgt:

                                                                            79
Blickhan                                                            Statistik I


                                                                       
                                      1  1
                     
                        2                                                
              1                                       ( x  x )2
s y   yi   yi   (1 r )
            2                    2
                                              
                                             1                         2 
              n  i          n  2 
  ˆ
       i                                      n           1       
                                                  xi 2  n  x i  
                                                 i           i  
(r: Korrelationskoeffizient, s.u.)


Um die Regressionsgerade herum gibt es also ein sich an beiden Enden
aufspreizendes Vertrauensband. Die Formel sieht kompliziert aus, lässt sich
aber in Tabellenkalkulationsprogrammen leicht implementieren.
Für die Berechnung der Standardabweichung der Parameter a0 und a1 bitte
Spezialliteratur zu Rate ziehen. Moderne Statistikprogramme verfügen über die
entsprechenden Algorithmen und eine Auflistung der langen Formeln (siehe
obiges Beispiel) ist hier nicht angebracht.



   7.2. Korrelation

Betrachten wir die Streuung der Messwerte, so beruht ein Teil auf dem linearen
Zusammenhang (erklärte Streuung) ein anderer Teil auf den statistischen
Ereignissen. Der Korrelationskoeffizient (r, bzw für die Grundgesamtheit) ist
das Verhältnis aus der erklärten Streuung und der totalen Streuung:


           erklärte Streuung
                                       ( y i  y )2
                                          ˆ
r                                  i
            totale Streuung            (yi  y )2
                                       i

                   ˆ
wobei yi :Meßwert; yi :berechneter Wert f . d. Regression ;
y :Mittelwert
Der Korrelationskoeffizient kann Werte zwischen -1 und +1 annehmen.



                                                                             80
Blickhan                                                           Statistik I


Für den linearen Zusammenhang zwischen zwei Variablen kann der
Korrelationskoeffzient über die Produkt-Momentenformel berechnet werden:


                       (xi
                                   i    x )( yi  y )
      r=
                 i
                   ( xi  x ) 2  ( yi  y ) 2
                                            i

Dies ist die gebräuchliche Beschreibung des Koeffizienten. Die Größe

                  (x         i    x )(yi  y )
      sx y       i

                                       n
wird Kovarianz von x und y genannt.
Vorsicht ein nachlässiger Umgang mit der Korrelation kann zu erheblicher
Fehlinterpretation führen. Passe ich an einen nichtlinear verteilten Datensatz
eine Gerade an, so liefert der Korrelationskoeffizient keine vernünftige
Information über die Güte des Zusammenhangs. Spielen dritte Parameter eine
wichtige Rolle, so kann es zu Scheinkorrelationen kommen. Hier ist sowohl die
Fragestellung als auch die Stichprobenwahl entscheidend.
Analog zum Korrelationskoeffizienten für skalierte Daten lässt sich ein
Koeffizient für Rangdaten herleiten (Spearman's Rangkorrelation).

                 6 Di 2
      rS  1         i
                 n(n2  1)
wobei Di die Differenz zwischen den Rängen zusammengehöriger Werte (xi, yi)
darstellt, n die Anzahl der Wertepaare (f. Prüfverfahren tabelliert).



  7.3. Stichprobentheorie



                                                                            81
Blickhan                                                                Statistik I


Ohne ausführliche Erläuterungen wird im Folgenden eine Reihe von
praxisnahen Prüfverfahren skizziert (hier sind auch fortgeschrittene Programme
oft lückenhaft):

1. Testen der Hypothese  = 0
Stichprobenfunktion



           r n 2
      t
             1 r 2
hat eine Student-Verteilung (s. t-test) mit  = n-2 Freiheitsgraden.

2. Testen der Hypothese = 0 ≠ 0:

Die Stichprobenfunktion

         1 1 r
      z  ln (      )
         2     1 r
ist ungefähr normalverteilt,            mit   einem    Mittelwert      und    einer
Standardabweichung von:

           1 1r                           1
       z  ln(      );           z 
           2    1 r                      n 3
3. Signifikanz einer Differenz zwischen zwei Korrelationskoeffizienten r1 und
r2:

              z1  z2  (  z1   z2 )
      zD 
                       z1 2   z2 2
ist normalverteilt.
4. Test der Hypothese a1 =A1:



                                                                                 82
Blickhan                                                            Statistik I


              a1  A1
       t             2
                             n 2
               1 r
folgt einer Student-Verteilung mit = n - 2.
5. Test für prognostizierte Werte yp der Grundgesamtheit (y0: aus der
Regression berechneter Wert):

                                y0  y p
       t                                                    n2
               x i yi      n  1  ( x0  x ) /  x i
                                             2           2

               i                                 i

ist Student-t-verteilt mit = n - 2.


     BEISPIEL 7.3.1:

     Für eine Trainingsgruppe soll geprüft werden, inwiefern die gemessenen
     Sprungweiten auf die Körpergröße zurückzuführen ist.




  Weite [m]        Gewicht        Größe
                   [kp]
  5,000            67,000         1,802
  3,800            67,000         1,740
  4,500            81,000         1,717
  3,200            102,000        1,664
  7,500            71,000         2,014
  5,500            67,000         1,758
  3,400            84,000         1,645
  3,500            91,000         1,612
  5,000            81,000         1,841
  4,400            68,000         1,813
  3,900            73,000         1,604
  6,300            78,000         1,880
  5,400            88,000         1,855

                                                                              83
Blickhan                                                                                      Statistik I




Lösung:
1. Aufzeichnung eines Streudiagramms der bivariaten Verteilung.


                    9,000

                    8,000
  Sprungweite [m]




                    7,000

                    6,000
                    5,000

                    4,000

                    3,000
                        1,500       1,700      1,900       2,100    2,300

                                            Gr öße [m ]




2. Berechnung einer Regressionsgeraden und des Korrelationskoeffizienten


 Num.                       Weite    Gewicht           Größe
                            [m]      [kp]
                            y                          x           x^2      y^2      xy
 1                          5,000    67,000            1,842       3,394    25,000   9,211
 2                          3,800    67,000            1,611       2,595    14,440   6,121
 3                          4,500    81,000            1,774       3,149    20,250   7,985
 4                          3,200    102,000           1,686       2,843    10,240   5,396
 5                          7,500    71,000            2,018       4,071    56,250   15,133
 6                          5,500    67,000            1,912       3,655    30,250   10,515
 7                          3,400    84,000            1,649       2,718    11,560   5,605
 8                          3,500    91,000            1,621       2,627    12,250   5,673
 9                          5,000    81,000            1,801       3,245    25,000   9,006
 10                         4,400    68,000            1,783       3,180    19,360   7,846
 11                         3,900    73,000            1,590       2,529    15,210   6,202


                                                                                                       84
Blickhan                                                             Statistik I


 12         6,300   78,000   1,875      3,515    39,690    11,812
 13         5,400   88,000   1,892      3,581    29,160    10,219
 Summ       61,40            23,055     41,101   308,660   110,724
 e          0



Hieraus ergibt sich aus den Formeln


 Achsenabschnitt                      -12,045
 Steigung                             9,501
 Korrelationskoeffizient              0,904



Diese Werte sind alle so deutlich von Null verschieden, dass eine Prüfung nicht
angezeigt ist. Die Rechnung ergibt eine Irrtumswahrscheinlichkeit < p = 0,001
für die Regressionsparameter. Es besteht ein Zusammenhang zwischen
Sprungweite und Körpergröße.




                                                                              85
Blickhan   Statistik I




                    86
Blickhan                    Statistik I

Tabelle; Normalverteilung




                                     87
Blickhan                        Statistik I

Tabelle; Normalverteilung (z)




                                         88
Blickhan                           Statistik I

Tabelle, t-Verteilung, einseitig




                                            89
Blickhan                                 Statistik I

Tabelle, F-Verteilung, (95%) einseitig




                                                  90
Blickhan                                 Statistik I

Tabelle, F-Verteilung, (99%) einseitig




                                                  91
Blickhan               Statistik I

Tabelle, Chi-quadrat




                                92
Blickhan                                  Statistik I

Tabelle, Kolmogorov-Smirnov, zweiseitig




                                                   93
Blickhan                                Statistik I

Tabelle, Binomial- und Vorzeichentest




                                                 94
Blickhan                Statistik I

Tabelle, U-Test (10%)




                                 95
Blickhan               Statistik I

Tabelle, U-Test (5%)




                                96
Blickhan               Statistik I

Tabelle, U-Test (2%)




                                97
Blickhan               Statistik I

Tabelle, U-Test (1%)




                                98
Blickhan                        Statistik I

Tabelle, Wilcoxon, zweiseitig




                                         99
Blickhan                                             Statistik I


8. LITERATUR:



z.B.
   K. Willimczik (1993) Statistik im Sport. Grundlagen,
     Verfahren, Anwendungen. Ahrensburg, Verlag Ingrid
     Czwalina

   M.R.Spiegel (1990) Satistik. London, McGrawHill

   R.R. Sokal, Rohlf, F.J. (1981) Biometry. SanFrancisco,
    W.H. Freemann

   G. Clauß, F.-R. Finze, L. Partzsch (1999) Statistik – Für
    Soziologen, Pädagogen, Psychologen und Mediziner.
    Frankfurt, Verlag Harri Deutsch

   Herbert Kütting (1999) Elementare Stochastik.
    Heidelberg-Berlin, Spektrum

   http://www.psychologie.uni-freiburg.de/skripten/




                                                             100
ENDE




       101

								
To top