Toetsende Statistiek, theorie les 1 by 3g46oqRo

VIEWS: 17 PAGES: 10

									Statistiek. H9, H10: theorie Toetsen.

Toetsen met μ en σ geschat=s
H0: μ     =    μ0 (=gegeven constante)
Ha: μ <, ≠, > μ0
    _
    x – μ0
t =
      se (=s/√n)
Grenswaarde en p-waarde in Tabel B met df=n-1

Aannames (ook voor 2 gemiddelden):
- Afhankelijke variabele is kwantitatief.
- Random steekproef
- Verdeling normaal
  Niet normaal alleen probleem als kleine n + toets eenzijdig + verdeling heel scheef.

- Het verschil tussen 2 gemiddelden μ1 – μ2 met σ1≠σ2
H0: μ1      =      μ2
Ha: μ1 <, ≠, > μ2
         _     _
       (x1 - x2)
t =
         s21    s22
      √(     +      )
         n1      n2
Grenswaarde en p-waarde in tabel B met vuistregel: df=kleinste n1-1 en n2-1

Interval:
 _ _                    s21       s22
(x1-x2)± t .       √(         +         )
                        n1        n2

- Het verschil tussen 2 gemiddelden μ1 – μ2 met σ1=σ2
H0: μ1     =      μ2
Ha: μ1 <, ≠, > μ2
         _     _
        (x1 - x2)
t =
             1       1
    sp . √(      +     )
             n1     n2

                  (n1 - 1) . s21 + (n2 - 1) . s22
met   s2POOLED=
                       n1 + n2 - 2
s2POOLED=een gewogen gemiddelde van beide varianties
grenswaarde en p-waarde in tabel B met df= n1 + n2 – 2

Interval:
                                            1        1
(x1 - x2) ± t       . sP . (                    +        )
                                            n1       n2

Toetsen van verandering met gepaarde waarnemingen
H0: μd    =     0
Ha: μd <, ≠, > 0
    _
    xd
t=
    se(=sd/√nP)
grenswaarde en p-waarde in Tabel B met df=nP-1, nP=aantal paren

Interval: xd ± t . se (=sd/√nP)
Toetsen met toetsingsgrootheid= significantietoets.
H0 en Ha.
- De H0 altijd met =
  De Ha met <, > en ≠
- Ha niet baseren op steekproefresultaat
- Ha in populatieparameters

A. Toetsen met formule en Tabel-waarde
Als uitkomst formule in staart: H0 verwerpen.

B. Toetsen met P-waarde en Statistische Significantie α.
De P-waarde is de waarschijnlijkheid van een uitkomst die zo extreem is,
of nog extremer, als de H0 waar is (P-waarde=de staart).
Als de P-waarde < significance -> H0 verwerpen.
Als de P-waarde > significance -> H0 niet verwerpen.

Het   berekenen van   de P-waarde:
Als   Ha <    ->      p (linkerstaart).
Als   Ha >    ->      p (rechterstaart).
Als   Ha ≠    ->      2 . p(de kleinste staart).

C. Toetsen met betrouwbaarheidinterval.
Een btbhi is alles wat de H0 mag zijn:
H0 ligt in het btbhi en wordt niet verworpen.
Voorbeeld: μ=10 en btbhi (9, 13) en de H0 wordt niet verworpen.
H0 ligt niet in het btbhi en wordt verworpen.
Voorbeeld: μ=10 en btbhi (6, 9) en de H0 wordt verworpen.

Veel gemaakte fouten:
- Nooit conclusie dat H0 waar is.
- Statistisch significant is niet praktisch betekenisvol.
- p-waarde is niet de kans dat H0 waar is.
- Significant resultaat kan toeval zijn.
Interval voor p

Interval p: p ± z . SEp

p=   X/n
p=   schatting voor p
X=   aantal goeden in de steekproef
n=   aantal waarnemingen in de populatie

            p.(1-p)
SEp= √(                  )
                  n

Toets voor p
H0: p    =               p0
H1: p <, ≠, >            p0

        p - p0
z=                                               grenswaarde laatste regel t-tabel,
      p0.(1-p0)                                  p-waarde in Tabel A
   √[          ]
         n
p0= constante bij H0

Aannames:
- De variabele is categorisch (=wel/niet in groep)
- Random steekproef
- Steekproef groot genoeg
  (=Expected minimaal 15 voor succes en mislukking: np>15 en n(1-p)>15)

Interval voor p1 - p2
(p1 - p2) ± z . SE
p1= X1/n1 en p2= X2/n2
X1,X2= aantal succes in steekproef 1 en 2
n1,n2= aantal waarnemingen in steekproef 1 en 2

            p1.(1-p1)              p2.(1-p2)
SE = √[                      +                   ]
                  n1                    n2

Toets voor p1= p2
H0: p1    =     p2
H1: p1 <, ≠, > p2

     p1 - p2
z=                                                   grenswaarde laatste regel t-tabel
       SE                                            p-waarde met Tabel A
                              1        1
SE = √[p.(1-p).(                   +        )]
                              n1       n2
p1=X1/n1
p2=X2/n2
p=(X1+X2)/(n1+n2)

McNemar om te kijken of proefpersonen
voor en na test veranderd zijn.

            WEL        NIET
WEL                     A
NIET         B

H0: p1=p2

     A - B
z=
     √(A+B)
Inzichtelijke begrippen Toetsen.
Significantie= α.
Uitgangspunt: H0 is waar.
significance is de kans dat een ware H0 wordt verworpen.
Ware H0 verwerpen= Type-I fout.
Kans op Type-I fout het liefst 0, maar in de praktijk meestal 0,05.
significantie=0,05 betekent maximaal 5% kans dat ware H0 wordt verworpen.
Je vergelijkt p-waarde met significantieniveau

Power.
Uitgangspunt: Ha is waar.
Power is de kans dat een ware Ha wel wordt aangetoond.
Type-II fout is een ware Ha niet aantonen.
p(Type-II fout)= 1 - power.
Power het liefst 100%.
p(Type-II fout)=0,20 betekent 20% kans dat een ware Ha niet wordt
aangetoond en 80% power dat de ware Ha wel wordt aangetoond.

p-waarde
Uitgangspunt: H0 is waar.
De p-waarde is de waarschijnlijkheid van een uitkomst die zo extreem is,
of nog extremer, als de H0 waar is.
p-waarde is oppervlakte in de staart.
Als p-waarde < significantie α -> H0 verwerpen


Type-I fout groter -> Type-II fout kleiner.
Logica: Als H0 makkelijk te verwerpen, Ha makkelijker aan te tonen.

Steekproef groter -> p-waarde kleiner.
Als steekproef groter wordt, beter beeld en wordt effect beter aangetoond.
H12,13. Regressie.
Het lineaire model.
y’        = a + b1 . x1 + b2 . x2
Doel Model is voorspellen en verklaren van y.
Residu= y- y’= gemeten y – geschatte y’= afwijking punt van lijntje.
De lijn wordt zo geschat dat ∑residuen2 wordt geminimaliseerd
=kleinste kwadratenmethode
Het model begint ergens (intercept=a) en heeft een richting (helling=b1,b2).
b1 is effect van x1 op y als x1 met 1 punt stijgt en x2 niet verandert.
Aanname: Effect van b1 is hetzelfde voor elk niveau van x2.

               DF        SS    MS            F
Regression     k         SS    MS=SS/k       F= MSRegression/MSResidual
Residual       n-k-1     SS    MS=SS/n-k-1
C Total        n-1       TSS

k=aantal predictoren=2 (b1+b2), aantal parameters=3 (a+b1+b2)
n= aantal waarnemingen

R2= SSRegression/TSS
R is samenhang tussen Modelschatting y’ en gemeten y
R2= voorspelde variantie, percentage vermindering voorspellingsfouten
- R2 tussen 0 en 1
- R2 wordt nooit kleiner als extra predictor
  R2 stijgt steeds langzamer bij extra variabelen,
  omdat toegevoegde waarde van extra variabelen steeds kleiner wordt.

s= √MSResidual
Verschil s en sy:
s =gemiddelde afwijking van losse punten met modelschatting (=lijntje).
sY =gemiddelde afwijking van losse punten met gemiddelde Y.

F-Modeltoets voor testen hele Model: Alle β's=0.
H0: β1=β2=0
F= MSRegression/MSResidual
df1=k en df2=n-k-1 (k=b1,b2 en 1=a) en F altijd rechtszijdig
SPSS: p-waarde aflezen bij C.Model

Coefficients
Model     b     se(b)    t
Constant a      se(a)     a/se(a)
x1        b1    se(b1)   b1/se(b1)
x2        b2    se(b2)   b2/se(b2)

t-toets voor testen 1 predictor.
H0: b=0 (In computeroutprint: Coefficients)
Bij simpel: geen samenhang X en Y
Bij multiple: geen toegevoegde waarde van extra variabele

     b - 0
t=             toetsen met grenswaarde t-tabel met df=n-k-1
      seb

Interval: b  t . seb

Interval voor schatting y.
y'  t . sey
Voorspellingsinterval y voor 1 individu met score van X (y'  t . s)
Betrouwbaarheidsinterval voor gemiddelde groepje op y met alle personen
in het groepje dezelfde score op X (y'  t . s/√n)
Voorspellingsinterval veel onzekerder dan betrouwbaarheidsinterval.
Categorische variabele (=groepen).
Indicator is constant verschil tussen 2 lijntjes.
Beide groepen krijgen eigen lijntje.
Als geen interactie: lijntjes lopen parallel.
Wel interactie: lijntjes hebben verschillende richting.

Voorwaarden regressie:
- relatie predictoren x en y is rechtlijnig (=lineair)
Voor toetsen extra:
- y voor elke waarde van x normaal verdeeld met zelfde s
- random steekproef
Normaal verdeeld minder belangrijk dan lineaire relatie.

De regressielijn als
conditionele kansverdeling.
Voor elke waarde van X een µy.
Gemeten Y liggen rond µy.                    µy
µy = gemiddelde van de gemeten Y
De regressielijn is een lijn
van gemiddelde waarden.
µy= α + βx
                                                                  X

De regressielijn als Model.
Een Model is een vereenvoudigde weergave van de werkelijkheid.
De regressielijn is vereenvoudigde weergave van relatie x en y.

Regression towards the mean.
Uitschieters zijn per definitie uitzonderlijk en worden meestal
gevolgd door een meer middelmatige score.
Bijv: 2 lange ouders krijgen geen superlange kinderen.
In regressie: uitschieter y= r . uitschieter x
In woorden:
Een uitschieter in voorspeller x leidt tot veel kleinere uitschieter y
Die dempende werking wordt groter als x en y weinig samenhangen
*x en y gemeten in standaardafwijkingen.

Regressie en r:
- Correlatie voor groepen veel hoger dan voor individuen=
  Ecological fallacy
- Formule voor correlatie meet alleen lineaire correlatie (=lijntje).
  Niet-lineaire correlatie wordt niet gemeten.
  Duidelijke kwadratische samenhang kan gemeten correlatie=0 opleveren.
- Extreme scores kunnen allesbepalend zijn.
  Uitbijters liggen een eind buiten het algemene patroon.
  Als standardized residuals > 3= outlier, checken met histogram
  Invloedrijke observaties hoge impact op schatting a en b.
- Range= Meetgebied= waarden x waarvoor je een waarde van y hebt gemeten.
  Klein meetgebied leidt tot lagere correlatie
- Pearson r schaalongevoelig

Een correlatie is niet een causaal verband.
Schijnsamenhang (lurking variabele).
Wel gemeten correlatie, maar geen causaal effect.
Bijv.: X1 en Y worden allebei beïnvloed door X2.

Je kan een lurking variable controleren door die op te nemen.
Een cofounding variable is een lurking variable die in het onderzoek zit.
Multipele regressie maakt de lurking variable onschadelijk door die als
variabele op te nemen.
Bij testen samenhang X en Y, kan je kijken of die samenhang nog steeds
geldt als personen hetzelfde scoren op een mogelijke lurking variable.
Simpson Paradox: Doordat verschillende groepen worden samengevoegd
                 geen goed beeld van relatie in groepen apart.
H14. Enkelvoudig Anova voor groepsgemiddelden.
De standaardvorm van de data:
Groep 1: x x x x x
Groep 2: x x x x
Groep 3: x x x x x

F-toets in Anova-model.
H0: Geen verschil gemiddelden: μ1= μ2= μ3
H1: Tenminste twee van de gemiddelden verschillen.

Anovamodel:
Source    SS     df    MS                        F              sig.
Between   SSB    g-1   Between var=SSB/g-1       Between var/
Within    SSW    N-g   Within var =SSW/N-g       Within var
C.Total   SS     N-1

N= aantal waarnemingen in de steekproef
g= aantal populaties in de steekproef

Conclusie.
Grenswaarde bij significance=0,05 in Tabel D: df1=g-1 en df2=N-g
sig < α en de H0 wordt verworpen (sig in SPSS-computeruitdraai)

Aansluitend Fisher t-toetsen met interval:
                               1    1
(Mean 1 – Mean 2) ± t . s . √(    +    )
                               n1   n2
t met df Within (N-g)
s= √MSWithin
Als 0 niet in interval: H0 verwerpen.

Multiple comparisons Tukey en Bonferroni.
Nadeel Fisher: met 1 toets is foutkans significance=0,05 opgebruikt.
Met elke volgende toets neemt de totale foutkans verder toe.
Met Tukey kan je alle gemiddelden van Anova vergelijken en is
de totale foutkans gelijk aan 0,05.
Of met Bonferroni door significance te delen door aantal toetsen.

F-verdeling.
   Between groepen variantie
F=
   Within groepen variantie

Between= de verschillen tussen de groepsgemiddelden.
Within = de verschillen tussen de losse scores binnen 1 groep.

F is rechtsscheef.




       1
variabele.                       x1   x2
Groep 1:       a + b1.x1         1    0
Groep 2:       a + β2.x2         0    1
Controlegroep: a                 0    0

a= gemiddelde Controlegroep
b1= MEAN Groep 1 – Controle
b2= MEAN Groep 2 – Controle
Voorwaarden voor Anova.
1. Random steekproeven.
2. Normaal verdeelde populaties.
   Alleen probleem als n klein en verdeling heel scheef
3. Gelijke varianties.
   Alleen probleem als meer dan factor 2 verschil tussen s

Tweevoudig Anova.
De standaardvorm van de data:
    B1   B2   B3
A1 x x x x x x
A2 x x x x x x

F-toets in Anova-model.
H0: Alle A-gemiddelden gelijk: µA1= µA2 (=Hoofdeffect)
H0: Alle B-gemiddelden gelijk: µB1= µB2= µB3 (=Hoofdeffect)
H0: Geen interactie

Source       SS       df               MS                  F
A            SSA      a-1              SSA/a-1             MSA/MSW
B            SSB      b-1              SSB/b-1             MSB/MSW
AB           SSAB    (a-1)(b-1)        SSAB/(a-1)(b-1)     MSAB/MSW
Within       SSW      N-ab             SSW/N-ab
C.Total      SST      N-1

N= aantal waarnemingen in de steekproef
a= aantal A-klassen
b= aantal B-klassen

Conclusie.
Grenswaarde bij in Tabel D: df1=a-1, b-1, (a-1)(b-1) en df2=N-ab
sig < α en de H0 wordt verworpen (sig in SPSS-computeruitdraai)

Minimale randvoorwaarde   voor significant effect.
A-effect: gemiddelden A   in steekproef verschillen.
B-effect: gemiddelden B   in steekproef verschillen.
Interactie: verschil B1   en B2 verschilt per A1, A2, A3.

Hoofdeffect:
Een hoofdeffect is een verschil in de gemiddelden van de niveaus
van 1 onafhankelijke factor (bijv A1 en A2).

Interactie betekent dat het effect van A verschilt per niveau B.
Bijv: een medicijn is veilig zonder alcohol, maar gevaarlijk met alcohol.

De celgemiddelden in een figuurtje.
- Als lijntje pieken of dalen heeft          ->    A-effect.
- Als lijntje hoger ligt                     ->    B-effect.
- Als lijntjes niet parallel                 ->    Interactie




                                                   B2                           B1


                                                   B1
                                                                                B2



      A1   A2   A3                A1    A2        A3             A1   A2   A3
H11. χ2-toets.
Kruistabellen.
Kruistabel geeft de frequentieverdeling van 2 of meer variabelen tegelijk.
Cellen zijn de kruispunten van 2 variabelen.
Percenteren per onafhankelijke=verklarende variabele (=meestal rij).
Als percentages gelijk=onafhankelijk, als verschillen=afhankelijk
Als onafhankelijk: X2=0
Chi-kwadraat X2 om na te gaan of samenhang tussen 2 variabelen significant
is (=meer dan toevallig). Significant als p-waarde < 0,05.

X2 test voor onafhankelijkheid/associatie.
H0: De kenmerken zijn onafhankelijk.
Ha: De kenmerken zijn afhankelijk.

        (observed - expected)2
Χ2= ∑
                 expected

observed= getelde aantal waarnemingen
expected= verwachte aantal waarnemingen (als populaties hetzelfde)

            rijsom . kolomsom
expected=
                 totaalsom

grenswaarde C: df=(r-1)(k-1) met r=aantal rijen en k=het aantal kolommen

X2 test voor gegeven kansverdelingen (=Goodness of   fit).
Test of de uitkomsten overeenkomen met een gegeven   kansverdeling.
H0: Gegeven kansverdeling klopt      -> observed =   expected
Ha: Gegeven kansverdeling klopt niet -> observed ≠   expected

        (observed - expected)2
 2
Χ= ∑
                 expected

observed= het aantal getelde waarnemingen
expected= N . p

p-waarde Rechtszijdig in C: df=k-1 met k= het aantal klassen

Aannames X2.
- Waarnemingen zijn onafhankelijk.
- Gemiddelde verwachte frequentie ≥5

X2 niet geschikt als:
- frequenties te klein (<5)
- als van kwantitatieve variabelen categorieën worden gemaakt

Eigenschappen X2.
Rechtsscheef, bij grote n normaal.
Bij grote n bijna altijd significant.
H15. Niet-parametrische toetsen.
Overzicht parametervrije toetsen.
Parameter toetsen met aanname dat normaal verdeeld.
Parametervrije toetsen als deze voorwaarde niet geldt.

1. Als systematisch verschil tussen twee onafhankelijke steekproeven:
   De Rangsom toets van Wilcoxon.
Deze toets sluit aan op theorie 1=2 met 2 onafhankelijke steekproeven.
Groep 1: y1 y1 y1 y1 y1
Groep 2: y2 y2 y2 y2 y2

H0: 2 populatieverdelingen zijn gelijk.
Ha: 1 verdeling systematische hoger of lager.

- Testen van gemiddelden als voorwaarden radicaal afwijken van normale
  verdeling of te kleine steekproef om dat te kunnen onderzoeken.
- Ordinale (=gerangordende) data.

Voorwaarden.
- Onafhankelijke steekproeven.
- De populatieverdeling is continu in beide populaties (geen of niet te
  veel ties).

Test met SPSS-uitdraai.
Bij kleine n: W= som van de rangnummers van de kleinste groep
Bij grote n: z-benadering

2. Als systematisch verschil tussen >2 onafhankelijke steekproeven:
   Kruskal-Wallis.
Deze toets sluit aan op theorie 1=2=3 >2 onafhankelijke steekproeven=
Enkelvoudige variantieanalyse.
Groep 1: y1 y1 y1 y1 y1
Groep 2: y2 y2 y2 y2 y2
Groep 3: y3 y3 y3 y3 y3


3. Als een systematisch verschil met gepaarde waarnemingen:
   - De mediaan toets.
   - De Rangtekentoets van Wilcoxon.
     Deze toets houdt er rekening mee dat sommige paren sterker verschillen
     dan andere paren en is dus exacter dan mediaantoets.

Wilcoxon sluit aan op   theorie afhankelijke steekproeven, d(=x-y).
   1.   2.  3.   4.     5.
A y1    y1  y1   y1     y1
B y2    y2  y2   y2     y2

H0: 2 populatieverdelingen zijn gelijk.
Ha: 1 verdeling systematische hoger of lager.

W= som van de positieve rangnummers van de verschilscoren

								
To top