Normalverteilung der Variablen in der Grundgesamtheit

Voraussetzung für die Anwendung von t-Test und F-Test im klassischen Regressionsmodell ist eine Normalverteilung der Residuen. Diese Normalverteilungsannahme ist zur Kleinst-Quadrate-Schätzung der Koeffizienten des linearen Regressionsmodells an sich nicht erforderlich. Wenn diese Annahme jedoch erfüllt ist, ist der Kleinst-Quadrate-Schätzer identisch mit dem Größte-Dichte-Schätzer (=Maximum-Likelihood-Schätzer).[1]

Sowohl Backhaus[2] als auch Kockläuner[3] empfehlen zur Überprüfung der Normalvertei­lungs­an­nahme die Überprüfung anhand von graphischen Hilfsmitteln. Zu diesem Zweck bieten sich vor allem zwei graphische Unterstützungen an. An erster Stelle steht hier das Histogramm der standartisierten Residuenwerte, das über den Regressionsbefehl von SPSS zu erreichen ist. Dabei wird die Verteilung der Residuenwerte einer stilisierten Normalverteilung gegenübergestellt. Auf der anderen Seite stellt SPSS unter dem Regressionsbefehl den Normal Probability (P-P) Plot zur Verfügung. Dieses Diagramm entsteht dadurch, daß die vorliegenden standartisierten Residuenwerte der Größe nach geordnet werden, um auf der vertikalen Achse die zugehörigen Werte ihrer empirischen Verteilungsfunktion abtragen zu können. Auf der horizontalen Achse werden diesen die Funktionswerte der standartisierten Normalverteilung gegenübergestellt. Dies ist die empirische Verteilungsfunktion der Erwartungs­werte von n Ordnungsstatistiken. Letztere ergeben sich aus der größenmäßigen Anordnung von n unabhän­gigen standartisierten normal­verteilten Zufallsvariablen. Prozentpunkte deren Verteilung liefern die angesprochenen Erwartungswerte. Normal Probability Plots sind dann wie folgt zu interpre­tieren: Nach Konstruktion der Achsen sind alle Koordinatenpaare immer dann auf der stilisier­ten Gerade liegend zu erwarten, wenn die eingehenden Beobachtungen Realisationen unabhän­gig standardisierter normalverteilter Zufallsvariablen darstellen.[4]

Grundsätzlich ist davon auszugehen, daß die Normalverteilungsannahme in der Regel verletzt sein wird, weil Normalverteilungen in der Realität kaum vorkommen. Der zentrale Grenz­wertsatz liefert aber die Argumentation dafür, daß die Störgrößen im Regressionsmodell wenigstens als näherungsweise normalverteilt gelten können.[5] In diesem Zusammenhang ist je­doch die Gefahr der Supernormalität zu beachten. Kurz zusammengefaßt ist darunter zu verstehen, daß bei großen Stichproben die Residuenwerte als gewichtete Summe der Störgrö­ßen auch dann annähernd normalverteilt sein können, wenn die Störgrößen nicht einer Normal­verteilung genügen. Daher läßt die Verteilung der Residuen oft nicht die Verletzung der Nor­malverteilungsannahme erkennen. Hinzu kommt in dieser Untersuchung, daß die Konstrukte aus mehreren Items gebildet werden, was die Nicht-Normalität weiter verschleiert. “Trotzdem bleibt diese Verteilung das einzige Instrument zur Überprüfung der Normalverteilungs­annahme, die für alle n Störgrößen ui und damit n einzelne Verteilungen gelten soll.”[6] Auf die weiteren statistischen Bedingungen für die Überprüfung der Normalverteilungsannahme wird an dieser Stelle nicht eingegangen, da diese statistischen Feinheiten nicht Thema einer inhaltlichen Arbeit sein können und den Umfang der Arbeit sprengen würden. Der interessierte Leser sei auf Kockläuner[7] verwiesen. Nur soviel soll hier angemerkt werden: Für die Überprüfung der Normalitätsannahme werden die intern studentisierten Residuen betrachtet, um konstante Varianzen sicherzustellen[8]. Außer­dem sollte die Normalitätsbedingung nach Kockläuner die zuletzt zu überprüfende Bedingung sein. Dies hat den Vorteil, daß nicht von n einzelnen Verteilungen, also für jede einzelne Störgröße eine, ausgegangen werden muß, zu denen jeweils nur ein Residuenwert zur Verfü­gung steht, sondern von einem Verteilungsmodell, zu dessen Überprüfung n Residuenwerte vorliegen.[9]

Die Überprüfung der graphischen Darstellungen führte zu folgenden Ergebnissen: Weitgehend lassen die Normal Probability Plots und vor allem die Histogramme eine relativ gute Anpassung an die Normalverteilung erkennen. Stärkere Abweichungen sind vor allem bei der 3. Regression und männlichem Geschlecht und bei der 5. Regression und weiblichem Geschlecht zu erkennen. Die Graphiken sind nicht in dieser Arbeit abgedruckt, können jedoch mit Hilfe der Syntax auf der beigefügten Diskette problemlos dargestellt werden.

Zur Überprüfung der Residuen auf Normalverteilung, soll zusätzlich der Kolmogorov-Smirnov-Anpassungstest durchgeführt werden. Dieser ist für kleine Stichproben besser geeignet als der Markentreue Statistik Symbol1-Test, da letzterer nur approximativ arbeitet.[10] Im Falle eines Ablehnens der Normal­verteilungsannahme durch diesen, kann im Anschluß noch eine weitere Verteilungsüberprüfung über Schiefe und Exzeß durchgeführt werden.

Die H0 des Kolmogoroff- Smirnov-Anpassungstest lautet, daß die empirisch ermittelte Vertei­lung gleich der Normalverteilung ist. Die Alternativhypothese lautet, daß sich die beiden Verteilungen für mindestens einen Wert der unabhängigen Variable unterscheiden. Die Hypo­these H0 wird nun zum Niveau Markentreue Statistik Symbol2 verworfen, wenn Dn multipliziert mit der Wurzel aus der Anzahl der Beobachtungen, größer oder gleich dem aus der Tabelle[11] zu entnehmenden kritischen Wert ist. “Die Größe Dn gibt den größten vertikalen Abstand zwischen hypothetischer und empirischer Verteilungsfunktion an.”[12] Nun ist das Signifikanzniveau zu bestimmen. Üblicherweise wird ein Signifikanzniveau von 1% oder 5% gewählt. An dieser Stelle ist zu beachten, daß es hier darum geht, die Normalverteilungsannahme zu überprüfen und dabei den Markentreue Statistik Symbol3-Fehler, das heißt eine fälschliche Beibehaltung der Nullhypothese zu minimieren. Da sich der Markentreue Statistik Symbol3-Fehler aus 1- Markentreue Statistik Symbol2-Fehler berechnet, erscheint es sinnvoll, das Signifikanzniveau an dieser Stelle höher anzusetzen. Im Rahmen der dieser Arbeit wird deshalb ein Signifikanzniveau von 10% zur Ablehnung der Normalverteilungsannahme angesetzt.

 

weiblich

männlich

Regression

K-S-z

Signif.-Ni­veau

K-S-z

Signif.-Ni­veau

1.a

1.1021

.1761

0.8518

.4626

1.b

0.4965

.9662

0.6876

.7317

2.a

0.8341

.4898

1.0320

.2373

2.b

1.0907

.1851

0.7863

.5666

3.

1.0867

.1884

1.1211

.1618

4.

0.7999

.5444

0.7258

.6680

5.

1.0018

.2681

0.6126

.8472

6.

0.9536

.3230

0.7569

.6156

Tab. 3 (Kolmogoroff-Smirnov-Test-Wert)

Für sämtliche Regressionen liegen die Kolmogoroff-Smirnov-z-Prüfgrößen und die entspre­chenden Signifikanzniveaus über dem geforderten Mindestmaß[13]. Kritisch sind vor allem die Kolmogoroff-Smirnov-z-Prüfgrößen für die Regression 1.a (weiblich), die Regression 5. (weiblich), da hier ja nur 38 Werte in die Untersuchung eingehen und Regression 3. (männlich). Die Normalverteilungsannahme für die Residuenwerte wird trotzdem für alle Regressionen als bestätigt angesehen. Auch das dritte und fünfte Regressionsmodell werden weiter verfolgt, auch wenn vor allem bei dem dritten Modell die Werte auf eine schlechte Erfüllung der Nor­malverteilungsannahme hindeuten.


[1] vgl.: Gruber, Josef, (1982), S. 58

[2] vgl.: Backhaus, K.; Erichson, B.; Plinke, W.; Weiber, R., (1994), S. 32

[3] vgl: Kockläuner, Gerhard, (1988), S. 58 ff

[4] vgl.: Kockläuner, Gerhard, (1988), S. 58 ff

[5] vgl.: Hartung, J., (1982), S. 122

[6] Kockläuner, Gerhard, (1988), S. 73

[7] Kockläuner, Gerhard, (1988), S. 60-76

[8] vgl.: Kockläuner, Gerhard, (1988), S. 63

[9] Kockläuner, Gerhard, (1988), S. 73

[10] vgl.: Hartung, J., (1982), S. 183

[11] vgl.: Hartung; J. (1982), S. 184

[12] Hartung; J. (1982), S. 184

[13] vgl.: Hartung; J. (1982), S. 184