Markentreue

Allgemeine Grundlagen

Es gibt in der Literatur eine ganze Reihe verschiedener Definitionen des Begriffs Marken­treue.[1] Allen gemeinsam sind zwei Aussagen. Die erste notwendige Eigenschaft dafür, daß man von Markentreue sprechen kann, ist die, daß die Käufe nicht zufällig erfolgen, sondern bestimmte Marken signifikant mehr gekauft werden, als dies durch Zufall zu erklären wäre. Als zweite notwendige Eigenschaft wird gefordert, daß markentreue Konsumenten eine positive Einstellung zu ihrer Marke haben.[2]

Darüber hinaus kann man die verschiedenen Konzepte der Markentreue in drei Kategorien einordnen[3]: behavioristische Markentreue-Konzepte, einstellungsorientierte Markentreue-Konzepte und einstellungsgeprägte Verhaltenskonzepte der Markentreue.

Behavioristische Markentreue-Konzepte sind solche, die sich in erster Linie mit dem gezeig­ten Verhalten beschäftigen und die zugrundeliegenden Einstellungen gar nicht oder nur am Rande be­handeln. Zu diesen Konzepten zählen das Kaufreihenfolge-Konzept, das Markt­an­teils-Konzept, das Markenanzahl-Konzept, das Kaufzeitpunkt-Konzept und das Wieder­kaufwahrscheinlichkeits-Kon­zept. Insbeson­dere die stochastischen Marken­aus­wahl-Model­le, die auf dem Konzept der Wieder­kauf­wahr­schein­lichkeit beruhen, haben in der angel­sächsischen Literatur große Beachtung und Verbreitung gefunden und werden dort oft als operationale Definitionen gebraucht. Aus diesem Grun­de und weil einige der im folgen­den gemachten Aussagen auf Unter­suchungen beruhen, die sich auf solche Modelle bezie­hen, sollen die wichtigsten hier kurz dargestellt werden. Es gibt noch eine große Anzahl wei­terer Modelle, die aber meist nur Kombinationen der hier aufgeführten sind. Implizit schließt sich das später erarbeitete Modell an die Betrachtungsweise des Linearen Lernmo­dells und des „new trier“- Modells an. Eine Kritik der verschiedenen Modelle würde den Rahmen dieser Arbeit sprengen. Für eine Kritik der Modelle und Anwendungsbeispiele siehe Massy[4] oder zusammenfas­send Wierenga[5] oder Nolte[6].

Das Bernoulli-Modell

Modelle dieser Gruppe haben gemeinsam, daß das mögliche Verhalten dichotomisiert wird. Es gibt nur zwei Verhaltensweisen, entweder „1“ = die interessierende Marke wird gekauft oder „0“ = eine an­dere Marke wird gekauft. Die Entscheidung zwischen diesen beiden Ver­haltensweisen wird als Zufallsvariable betrachtet. Von einer Zufallsvariablen wird gesagt, daß sie eine Bernoulli-Verteilung hat, wenn sie nur zwei Werte annehmen kann, nämlich 1 und 0. Der Auswahlprozeß wird Bernoulli-Prozeß genannt, wenn die Marke 1 mit der Wahrscheinlichkeit p und die Marke 0 mit der Wahrscheinlichkeit (1-p) ausgewählt wird. Die Kaufhistorie hat bei dieser Betrachtung keine Auswirkung auf die anstehende Kaufent­scheidung, da die Wiederkauf­wahrschein­lichkeit durch p vorge­geben ist. Es existie­ren homogene und heterogene Bernoullimodelle. Der Unterschied zwi­schen diesen besteht in der Verteilung der Wiederkauf­wahr­schein­lich­keit. Während beim homogenen Modell die Wahrscheinlichkeit p für alle Individuen gleich ist, ist beim heterogenen Modell diese Wahr­scheinlichkeit p über die Gesamtheit verteilt. Das bedeutet, es gibt Konsumenten mit einer hö­heren und solche mit einer niedrigeren Wahrscheinlichkeit, der Mittelwert ist jedoch immer p.

Das Markov-Modell

Dieses Modell geht auf den russischen Mathematiker Markov zurück.[7] Charakteristikum dieses Mo­dells ist, daß die Wahrscheinlichkeitsverteilung für die alternativen Marken in zu­rückliegenden Peri­oden ermittelt und aus dieser Verteilung die Wahrscheinlichkeit für mar­kentreues Verhalten in der kommenden Periode berechnet wird. Das Modell geht davon aus, daß nur einige wenige zurückliegende Käufe einen Einfluß auf das Kauf­verhalten haben. Das meistbenutzte Modell ist das „first order Markov Model“. Für dieses spezielle Markov-Modell ist nur die letzte Kaufhandlung für die aktuelle Kaufent­scheidung relevant. Alle vor der letzten Kaufhandlung liegenden Käufe haben demnach kei­nen Einfluß mehr auf die ak­tuelle Ent­scheidungssituation. Es wird wieder unterschieden zwi­schen einer homogenen und einer heteroge­nen Variante. Während bei der homogenen Varian­te jeweils einheitliche Übergangswahrschein­lich­keiten für die gesamte Population ermittelt werden, wird bei der heterogenen Variante von einer Streuung ausgegangen. Das heterogene Modell vereint da­mit zwei positive Eigenschaften: Erstens wird die Kaufhistorie in Betracht gezogen und zweitens werden nicht alle Individuen gleich behandelt. Da bei diesem Modell, im Gegen­satz zum Bernoulli-Modell, nicht nur zwei Zustände relevant sind, sondern schon beim Zwei-Produkt-Markt vier Übergangswahrscheinlichkeiten existieren, sind min­destens zwei Wahrscheinlichkeiten zu dessen Beschreibung notwendig. Bei dem n-Produkt-Markt steigen die notwendigen Wahrscheinlich­keiten ent­sprechend. Für jede dieser Wahrschein­lich­keiten müßte eigentlich eine eigene Verteilung ermittelt werden. Um die Komplexität zu re­duzieren, werden in der Praxis meist Relationen zwischen den verschiedenen Wahrschein­lichkeiten festgesetzt, so daß letztendlich nur noch eine Wahr­scheinlichkeit p untersucht werden muß.

Das lineare Lern-Modell

In einem „first-order Markov model“ kann die Wiederkaufwahrscheinlichkeit in Abhängig­keit von dem in der Vorperiode erworbenen Produkt nur zwei Werte annehmen. Beim linea­ren Lernmodell ist die Situation komplizierter: Die Wahrschein­lich­keit eines Wiederkaufes im Zeitpunkt (t+1) also p(t+1) ergibt sich aus der Formel: pt+1 = e+gpt.

Im Zwei-Produkt-Fall, den wir hier betrachten wollen, weil er der in der Literatur meistbe­han­delte ist, existieren zwei Formeln, die den Einfluß einer bestimmten Kaufhandlung im Zeit­punkt t auf die Kaufwahrscheinlichkeit im Zeitpunkt t+1 determinieren. Es gibt eine Formel, die die Wahrscheinlich­keit für Produkt 1 in t+1 bestimmt, wenn Produkt 1 in t gewählt wurde, und es gibt eine Formel, die die Wahr­schein­lichkeit für Produkt 1 in t+1 bestimmt, wenn Produkt 1 in t nicht gewählt wurde. Die Formeln sind simple Geraden­gleichungen. Aus diesem Grunde läßt sich das Modell sehr einfach graphisch darstellen. Die Parameter in den Geraden­gleichungen werden durch Schätzverfahren aus der Kaufhistorie ermittelt.

Das probabilistische Diffusionsmodell

Bei diesem erst in neuerer Zeit entwickelten Modell ist die Wiederkaufwahrschein­lich­keit unab­hängig von der Kaufhistorie. Insoweit handelt es sich eigentlich um ein Bernoulli-Mo­dell. Bei dem probabilistischen Diffusionsmodell wird jedoch nicht angenommen, daß die Wiederkauf­wahrschein­lichkeit vom Zufall abhängig ist. Statt­dessen wird die Wiederkauf­wahrscheinlichkeit in Abhängigkeit von externen Effekten gesehen.[8]

Das „new trier“-Modell

Dieses Modell gliedert die Entwicklung der Wiederkaufwahrscheinlichkeit in zwei Phasen. In der er­sten Phase wird davon ausgegangen, daß der Konsument wahllos verschiedene Marken ausprobiert. Der Auswahlprozeß gleicht also einem Bernoulli­prozeß. Im Anschluß an diese Phase findet eine Bewertung aller Marken statt. Dadurch ändern sich die Wieder­kaufwahr­scheinlichkeiten abrupt, blei­ben dann jedoch für die folgenden Kaufentscheidun­gen gleich. Es liegt also erneut ein Bernoullipro­zeß vor. Darüber hinaus wird jeder Marke nicht nur eine Wiederkaufwahrscheinlichkeit, sondern auch eine Ablehnungswahrschein­lichkeit zugeord­net. Diese Ablehnungswahr­schein­lichkeit nimmt mit abnehmender Rate von Kauf zu Kauf zu und nähert sich einem Grenzwert. Dies führt jedoch nicht dazu, daß die Wiederkaufwahr­scheinlichkeit abnimmt. Diese bleibt vielmehr während des gesamten Prozesses gleich oder wird im Falle des Eintretens der Ablehnung gleich Null.[9]

„Zusammenfassend kann man sagen, daß sich die skizzierten modell-theoretischen For­schungsstra­tegien kaum zur Erklärung des Treueverhaltens eignen. Sie zeichnen sich je­doch durch wenige und einfach zu beschaffende Variablen aus, um unter Berücksichtigung ab­satzpolitischer Aktivitäten die Markentreue bzw. den Markenwechsel in der Zukunft zu pro­gnostizieren.“[10]

„The degree to which loyalty to brand names may be said to exist is partially a function of the method of measurement and individual interpretation.“[11]

Wie die beiden Zitate andeuten, ist Markentreue ein hypothetisches Konstrukt, dessen De­finition dem Belieben des Forschers unterliegt. Zwar kann man mit Hilfe dieses Kon­struk­tes ermitteln, ob Markentreue nach der selbstkonstruierten Definition vorliegt und prognosti­zieren, ob die Indikatoren dieses Konstruktes auch in Zukunft zu beobachten sein werden, die beschriebenen Modelle helfen je­doch nicht bei der Frage, wieso die Indikatoren auftre­ten. Aus diesem Grunde werden die oben be­schriebenen Modelle im Rahmen dieser Arbeit nur am Rande behandelt.

Besser geeignet sind die einstellungsorientierten Modelle.

Einstellungsorientierte Markentreue-Konzepte sind solche, die die Markentreue in Einstel­lungskate­gorien definieren und die Verhaltenskomponente nur insoweit beachten, als davon ausgegangen wird, daß Einstellungen zu einer entsprechenden Markenauswahl führen. Zu diesen Konzepten gehören das Markenpräferenz-Konzept, das Wiederkaufabsichts-Konzept und das Substitutions­bereitschafts-Konzept. Bisher existieren relativ wenige ausformulierte einstellungsorientierte Modelle. Der größte Mangel der existierenden Modelle be­steht darin, daß keine Aussage über den Zusammenhang zwischen der Einstellung als Indika­tor und der tatsächlich ausgeführten Kaufhandlung gemacht wird. Fazio trifft im Rahmen sei­ner Untersuchung eine Aussage, die darauf schließen läßt, daß der Zu­sammenhang bei mar­kentreuen Einstellungen relativ hoch ist. „Previous research has demonstrated that beha­viour is more accurately predicted from attitudes formed via direct, behavioral in­teraction with the attitude object than from attitudes developed via indirect, nonbehavioral experience.“[12] Da Markentreue immer mit einer Erfahrung mit dem Produkt ver­bunden ist, trifft diese Aussage auf Markentreue-Einstellung zu.

Einstellungsgeprägte Verhaltenskonzepte der Markentreue sind solche, die beide Kompo­nen­ten ausführlich behandeln und die funktionale Abhängigkeit zwischen beiden als konsti­tutiv betrachten. Sie sind dadurch näher an der Realität, haben aber oft den Nachteil, we­sentlich komplexer zu sein. Trotzdem gelingt es auch diesen Modellen nicht, den Zu­sam­menhang zwischen Einstellungen und Kaufhandlungen eindeutig zu klären.[13]

In dieser Arbeit liegt der Schwerpunkt auf den Einstellungen. Es werden keine Kaufhand­lungen beob­achtet, sondern nur Einstellungen, Emotionen und Erregungs­potentiale durch Befragung ermit­telt. Zwar wird eine Wahr­schein­lichkeit für einen Wieder­kauf erfragt werden, diese ist jedoch eher im Sinne der konotativen Komponente der Einstellung als im Sinne eines Verhaltens zu inter­pretieren.

Explikation und Diskussion einer Begriffsabgrenzung

Die wichtigsten Gesichtspunkte des Phänomens Markentreue faßt Jacoby in der folgenden Definition zusammen. Es muß an dieser Stelle darauf hingewiesen werden, daß auch diese Definition keine Aussage darüber macht, warum es zu Markentreue kommt, obwohl Jacoby[14] dies behauptet. Vielmehr liefert diese Defini­tion nur ein Set von sechs notwendigen und zusammen hinreichen­den Bedingungen, um zu entscheiden, ob es sich um Markentreue handelt oder nicht. Für den entscheidenden Faktor seiner Definition (bias), führt Jacoby darüber hinaus eine behavioristische Operationalisierung an, die nichts mit dem durch Einstel­lungen geprägten „bias“ zu tun hat. Damit erfüllt Jacoby zwar nicht die Ansprüche, die er an seine Defini­tion stellt[15], für die Zwecke der vorliegenden Arbeit ist die Definition jedoch ausreichend, (BL=brand-loyalty):

„…BL is (1) the biased (i.e., nonrandom), (2) behavioral response (i.e., purchase), (3) ex­pres­sed over time, (4) by some decision-making unit, (5) with respect to one or more alter­native brands out of a set of such brands, and (6) is a function of psychological (decision-making, evaluative) proces­ses.“[16] [17]

Die Punkte (1) und (6) können zusammenfassend interpretiert werden. Sie drücken aus, daß die Kaufent­scheidung keine Zufallsentscheidung ist, sondern aufgrund von Bewertungen zustande kommt. In diese Bewertungen gehen dabei nicht nur die aktuell wahrgenommenen Eigen­schaften der Marke ein, sondern zusätzlich auch Einstellungen, die aufgrund vorhergehender Erfahrungen oder früherer Informations­auf­nahme gebildet wurden. Dabei setzt diese Defini­tion nicht voraus, daß bei jeder Entscheidung eine umfangreiche Bewertung stattfinden muß. Am Ende dieses Informationsverarbeitungsprozesses steht auf jeden Fall eine Einstellung dem Produkt gegenüber. Der Punkt (1), also die Voreinge­nom­men­heit, ist der zentrale Punkt in der Definition von Jacoby, da alle anderen Bedingungen entweder sehr nahe an anderen in der Literatur vertretenen Definitionen bleiben oder sich aus dem Zusammenhang von selbst erge­ben.[18]

Aufgrund der semantischen Bedeutung des Wortes „Treue“ (oder auch „loyalty“), wird eine Dauerhaftigkeit und eine Bindung an die Marke gefordert. In diesem Sinne wird der Teil (3) zu interpretieren sein. Schon ein zweiter Kauf einer Marke kann als Markentreue bezeichnet werden, wenn die übrigen Bedingungen erfüllt sind.

Aus (5) geht hervor, daß sich Markentreue nicht auf eine einzige Marke beschränken muß. Es werden grundsätzlich zwei Arten von Markentreue unterschieden: Mono-Loyalität und Dual- oder Multi-Loyali­tät[19]. Unter Mono-Loyalität wird die Neigung zu regelmäßigem Kauf ein- und derselben Marke verstan­den. Unter Dual- oder Multi-Loyalität verstehen wir die Neigung zum regelmäßigen Kauf zweier oder einiger weniger Marken. Für diese Untersuchung wollen wir nur im Falle der Mono-Loyalität von Markentreue sprechen. Abwechslungsappetenz als ei­ner der wichtigen Faktoren des Markenwechsels kann nämlich durchaus auch durch den Wechsel zwischen einzelnen Marken innerhalb eines Multi-Loyalitäts-Sets befriedigt werden. Wenn die Multi-Loyalität zugelassen würde, gingen Markentreue und Abwechslungsverhalten ineinander über. Dies mag in manchen Produktkategorien der Fall sein und widerspricht nicht dem später vorgeschlagenen Konzept. Die empirische Überprüfung des Konzeptes bei Be­rücksichtigung dieses Falles würde dadurch jedoch erheblich erschwert.

Trotzdem verlangt Bedingung (5), daß in der Kaufentscheidungssituation Alternativen vorliegen müssen. Das „evoked set“ muß mehr als eine Marke enthalten. „The brands that become alternatives to the buyer´s choice decision are generally a small number, collectively called his ‚evoked set‘. The size of the evoked set is at best a fraction of the brands that he is aware of and a still smaller fraction of the total number of brands that are actually available in the market.“[20] „Only evoked brands have a highly positive intention.“[21] (to be bought)[22].

Wenn in der Entscheidungssituation keine akzeptablen Alternativen vorliegen, sprechen wir nicht von Markentreue, da die Entscheidung dann nur eine Entscheidung zwischen Kauf oder Nicht-Kauf ist.

Durch (4) wird eindeutig darauf hingewiesen, daß weder der Person, die die Marke kauft, noch der Per­son, die die Marke verwendet, die Markentreue zuzurechnen ist, sondern nur der Person, die die Marken­entscheidung trifft. Dabei wird in der Definition bewußt nicht von Person, sondern von Entscheidungsein­heit gesprochen, da die Entscheidung auch von der gesamten Haushaltsge­meinschaft oder von einer Teilgruppe des Haushalts gemeinsam getrof­fen werden kann.

Erkennbar wird die Markentreue erst durch die Kaufhandlung an sich. Dies ist mit Punkt (2) gemeint. Im Rahmen dieser Untersuchung beschränken wir uns, wie schon oben angedeutet, auf die Aufstellung eines einstellungsorientierten Markentreue-Konzeptes. Deshalb lassen wir diesen Punkt außen vor und spre­chen auch ohne die effektiv beobachtete Kaufhandlung von Marken­treue, wenn die übrigen Bedingungen erfüllt sind. Die Begriffe Markentreue und markentreue Einstellung werden in dieser Arbeit weitgehend synonym gebraucht, da hier Einstellungen untersucht werden.

Abschließend sei angemerkt, daß es noch eine große Anzahl von ähnlich oder synonym ge­brauchten Begriffen gibt, wie Kundentreue, Produktreue, Modelltreue, Firmentreue, Betriebs­treue, Qualitätstreue oder verschiedene Differenzierungen von Markentreue. Da eine negative Abgrenzung all dieser Begriffe an dieser Stelle zu umfangreich würde, beschränken wir uns darauf, den Begriff hier in positiver Richtung zu definieren, wie dies oben geschehen ist. Für die negative Abgrenzung wird auf Nolte verwiesen, dessen gesamte Untersuchung ebenfalls auf der Marken­treue-Definition von Jacoby beruht.[23]


[1] Jacoby stellt insgesamt 53 Definitionen von Markentreue, die bis 1976 in der Literatur aufgetaucht sind zusammen und diskutiert diese. (vgl.: Jacoby, J.; Chestnut, R. W., (1978), S. 35-41).

[2] vgl.: Nolte, H., (1976), S. 10-11

[3] vgl.: Nolte, H., (1976), S. 15ff und Bass, F. M.; Givon, M. M.; Kalwani, M. U.; Reibstein, D.; Wright, G. P., (1984)

[4] vgl.: Massy, W. F.; Montgomery, D. B.; Morrison, D. G., (1970)

[5] vgl.: Wierenga, B., (1974)

[6] vgl.: Nolte, H., (1976)

[7] vgl.: Fisz, M., (1965)

[8] vgl.: Montgomery, D.B.; Morrison, D.G., (1969)

[9] vgl.: Aaker, D. A., (1970), (1971), (1972)

[10] Weinberg, P., (1990), S. 164

[11] Guest, L. P., (1944), S. 27

[12] Fazio, R.H.; Zanna, M. P., (1978), S. 228

[13] vgl.: Nolte, H., (1976), S. 82 ff

[14] vgl.: Jacoby, J.; Kyner, D.B., (1973), S. 2

[15] vgl.: Tarpey, L.X., (1974)

[16] Jacoby, J.; Kyner, D.B., (1973), S. 2

[17] Eine ähnliche Definition benutzen auch Brown (Brown, G. H., (1952/1953)), Nolte (Nolte, H., (1976)) und Day (Day, G. S., (1969)) in ihren Untersuchungen.

[18] vgl.: Tarpey, L.X., (1974), S. 215

[19] vgl.: Gierl, H. et al., (1993), S. 104

[20] Howard, J.A.; Sheth, J. N., (1969), S. 26

[21] Laroche, M.; Sadokierski, R., (1994), S. 3

[22] Anmerkung des Autors

[23] vgl.: Nolte, H., (1976), S. 104-183

Unsicherheit durch Qualitätsvarianz

Die Unsicherheit in der Kaufentscheidungssituation ist gleich der wahrgenommenen Wahr­schein­lich­keit, daß bestimmte Konsequenzen eintreten. Diese Unsicherheit ist zum einen auf die Qualitäts­ver­teilung, die zwischen den Marken innerhalb der jeweiligen Produktklasse subjektiv wahrge­nommen wird, zurückzuführen. Zum anderen leitet sich die Unsicherheit aus der begrenzten Informations­verarbeitungs­kapazität des Menschen ab. Im Zusammenhang damit steht die begrenzte Informations­gewinnungs­kapazität, da es oft unmöglich ist, alle relevanten Daten über alle Alternativen zu gewinnen, geschweige denn sie zu verarbeiten. Je weniger der Konsument sich mit dem Markt auseinandersetzt, das heißt die relevanten Informa­tionen verarbeitet, desto größer ist die mit der Kaufentscheidung verbundene Un­sicher­heit.

Durch folgende Maßnahmen kann die Qualitätsverteilung innerhalb einer Produktklasse ermit­telt werden:

durch die Messung der Qualitätsvarianz innerhalb der Produktklasse

durch Ermittlung des prozentualen Anteils akzeptabler Marken je Produktklasse

durch Bestimmung des durchschnittlichen Qualitätsniveaus in der Produktklasse[1]

Diese drei Punkte werden sich in der Operationalisierung der Unsicherheit später wiederfinden.

Neben der Angst vor den negativen Folgen eines Versagens des Produktes hat die Qualitätsver­tei­lung noch eine andere Auswirkung. Bedingt durch die Qualitätsverteilung weiß man nie genau, ob es nicht eine bessere oder eine andere genauso gute Alternative wie die ausgewählte gibt. Dieses Bewußtsein wird als unangenehm empfunden. Letztendlich läßt sich auch dieses Problem wieder auf die negativen Konse­quenzen zurückführen. Wenn der Konsument befürch­tet, daß es eine bessere Alterna­tive als die ausgewählte gibt, dann empfindet er dies deshalb als unangenehm, weil er weiß, daß er negativere Konsequenzen akzeptie­ren muß, obwohl dies nicht notwendig wäre.

Es ergeben sich zwei Möglichkeiten, die Unsicherheit zu reduzieren.

Zum ersten kann die Verteilung der Qualität innerhalb der verschiedenen zur Auswahl stehen­den Alterna­tiven reduziert werden. Hierauf hat der Konsument im Regelfall keinen Einfluß. Zum zweiten kann durch kognitive Anstrengungen versucht werden, sämtliche über die relevan­ten Alternativen vorliegenden Informationen zu verarbeiten. Dadurch würde die Qualitätsvertei­lung zwar nicht geändert, der Konsument hätte jedoch Gewissheit, ob es eine gleichwertige oder bessere Marke auf dem Markt gibt. Außerdem sinkt mit steigendem Informationsgrad die Wahrscheinlichkeit, daß die Zielvorstel­lungen des Konsumenten von der ausgewählten Alterna­tive nicht befriedigt werden. Sobald die Produkte eine gewisse Qualitätsvarianz aufweisen und die Zahl der Produkte ansteigt, dürfte ein Vergleich aller Attribute sämtlicher Marken das Informations­verarbeitungs­vermögen übersteigen. Wie schon angedeu­tet, reicht es nicht alleine aus, die Informationen zu verarbeiten. Bevor die Verarbeitung erfolgen kann, müssen zunächst die entsprechenden Informationen beschafft werden.

Ob und inwieweit der Konsument die Anstrengungen auf sich nimmt, die Unsicherheit zu reduzieren, ist von seiner Motivation abhängig, das Risiko durch Informationsbeschaffung und -verarbeitung zu reduzie­ren. Diese Motivation ist zum einen von seiner individuellen Risikoto­le­ranz und zum zweiten von der Größe der drohenden Konsequenzen abhängig. Die Risikoto­leranz ist eine Persönlichkeitseigenschaft, die sich vermutlich auf das Maß an Dissonanz zurückführen läßt, die das Individuum zu akzeptieren bereit ist. Das Maß an Risikotoleranz steht deshalb vermutlich im Zusammenhang mit der Ausprägung des Konsistenzmotivs. Wenn Unsi­cherheit und Risikotoleranz fest­stehen, hängt die Größe seines Antriebs von den zu erwarten­den Konsequenzen ab. Je größer die zu erwartenden Konsequenzen sind, desto größer ist die Motivation die Unsicherheit zu reduzieren.


[1] vgl.: Bettman, J. R., (1973), S. 185

Gütekriterien der Messung

Die Befragung durch Fragebogen ist eine Messung. Auf die praktische Bedeutung von Messun­gen bezogen, müssen diese vor allem objektiv, vergleichbar, ökonomisch und nützlich sein.[1] Diese Gütekriterien sind nur schwierig zu überprüfen. Aus statistischer Perspektive sind zwei weitere Gütekriterien wichtiger, die durch statistische Prüfungen zu belegen sind: Validität und Reliabilität. Reliabilität ist gemäß der klassischen Testtheorie definiert, als der Quotient der Varianz der wahren Werte und der Varianz der beobachteten Werte.[2] Die Reliabilität ist ein Maß dafür, inwieweit die gemessenen Werte mit den tatsächlichen Werten übereinstimmen. Demgegenüber ist die Validität ein Maß dafür, inwieweit das Meßinstrument wirklich das mißt, was es messen soll.

Um die Konstruktvalidität der Variablen zu überprüfen, wurde nach angemessenen Recodie­rungen, eine „näherungsweise“ konfirmatorische Faktorenanalyse durchgeführt, indem alle Indikatoren, die Bestandteil eines Konstruktes werden sollen, in eine gemeinsame Faktorenana­lyse eingegeben wurden.[3]

Die Konstrukte Reizbedürfnis, Abwechslungsaffekt, Risikotoleranz und ursprüngliches Abwechslungspotential konnten aufgrund dieser Faktorenanalyse als relativ valide bewertet werden. Durch eine weitere Faktorenanalyse mit den übrigen Indikatoren konnten trotz teilweise erheblicher Fehlladungen, die vermutlich auf mangelhafte Operationalisierung zurück­zuführen sind, die Konstrukte Involvement und ursprüngliches Risikopotential bestätigt werden. Problematisch verhalten sich die Ladungen bei dem Konstrukt Konsequenzen und hier vor allem die von RIAFFSOZ und RIAFFPHY. Da dieses Konstrukt noch aus einer ganzen Reihe weiterer Items besteht, soll für diese Arbeit trotzdem an dem Konstrukt Risikoaffekt festgehal­ten werden. GESAFF_X zeigt hohe Ladungen auf mehreren verschiedenen Faktoren. Bei der Zuordnung der Items aufgrund der jeweils höchsten Ladung, teilen sich die Items auf zwei Faktoren auf. Die Operationalisierung des Gesamtaffektes ist damit als unsicher zu bezeichnen.

Eine weitere Unstimmigkeit tauchte bei den Konstrukten Gewöhnung und Unsicherheit auf. Beide Konstrukte zeigten sehr hohe Ladungen auf dem gleichen Faktor. Dieser Sachverhalt kann theoretisch interpretiert werden, da eine sehr hohe Abhängigkeit zwischen Unsicherheit und Gewöhnung besteht. Je größer die Gewöhnung ist, desto geringer wird tendenziell die empfundene Unsicherheit sein. Umgekehrt wird mit großer wahrgenommener Unsicherheit das Gefühl von Gewöhnung eher gering sein. Beide Konstrukte werden weitgehend ohne affektive Bewertung ermittelt. Trotz dieser Überschneidung werden Unsicherheit und Gewöhnung im weiteren als zwei getrennte Konstrukte behandelt.

Die „rotated factor matrix“ ist im Anhang abgedruckt. Dort können die hier abgeleiteten Ergeb­nisse nachvollzogen werden.

Als Reliabilitätsmaß der Messung wird der Koeffizient „Cronbachs Alpha“, der ein Maß für die interne Konsistenz einer Skala darstellt, ermittelt. Die Reliabilitätskoeffizienten können der folgenden Tabelle entnommen werden. Weitere Informationen sind im Anhang abgedruckt. Jede Skala setzt sich zunächst aus den Items zusammen, die oben zu den entsprechenden Konstruk­ten genannt wurden. Um die Reliabilität zu erhöhen, wurden, nach inhaltlicher Überprüfung, teilweise Items aus der Skala ausgeschlossen und der Reliabilitätskoeffizient danach erneut berechnet.

Skala (Konstrukt) alpha
Abwechslungsaffekt (ABWAFF_X) .8567
ursprüngliches Abwechslungspotential (ABWPOURX) .8249
Gesamtaffekt (GESAFF_X) .6667
Gewöhnung (GEWOEH_X) .7296
Gewöhnung (GEWOEH_X ohne GEWOEH_3) .7621
Involvement (INVOLV_X) .6593
Involvement (INVOLV_X ohne INVOLV_1) .7077
ursprüngliches Risikopotential (KONURS_X) .6777
Reizbedürfnis (REIZBEX1) .9549
Konsequenzen (KONSEQ_X) .7481
Risikotoleranz (RISLUSX1) .7906
Unsicherheit (UNSICH_X) .0981
Unsicherheit (UNSICH_X ohne UNSICH_4 und UNSICH_5) .7777
Wiederkaufwahrscheinlichkeit (WKW_X) .6316

Tab. 1 (Cronbachs Alpha)

Ab welcher Höhe des Testwertes „Cronbachs Alpha“, das getestete Meßinstrument als reliabel zu bezeichnen ist, ist nicht eindeutig festgelegt. Üblicherweise werden Koeffizienten von .7 bis .8 als ausreichend angesehen. In der Praxis werden häufig weit geringere Koeffizienten noch akzeptiert.[4] Nach dieser Maßgabe können alle Skalen bis auf WKW_X, GESAFF_X und KONURS_X auf jeden Fall als reliabel eingestuft werden. Bei der Interpretation ist jedoch zu berücksichtigen, daß die Höhe von Cronbachs Alpha mit steigender Itemzahl einer Skala ansteigt. Bedenkt man dies,deuten die relativ niedrigen Koeffizienten der Skalen WKW_X, GESAFF_X und KONURS_X die aus nur 4, bzw. 6 Items bei KONURS_X gebildet wurden, doch auf eine ausreichende innere Konsistenz hin. Alle drei Konstrukte verbleiben deshalb in der Auswertung.


[1] vgl.: Schnell, R.;Hill, P.B.; Esser, E. (1993), S. 158

[2] vgl.: Schnell, R.;Hill, P.B.; Esser, E. (1993), S. 158

[3] vgl.: Schnell, R.;Hill, P.B.; Esser, E. (1993), S. 174 und Bortz, J., (1993), S. 518

[4] vgl.: Schnell, R.;Hill, P.B.; Esser, E. (1993), S. 161

Aufbereitung der Daten

Im Anschluß an die Variablendefinition, die Recodierung aufgrund falscher Orientierung der Items im Fragebogen und die Validitäts- und Reliabilitätsuntersuchungen, wurden folgende mathematische Definitionen für die einzelnen Konstrukte als statistisch sinnvoll erachtet und entsprechende Transformationen durchgeführt. Im Anschluß daran sind noch einige Recodie­rungen vorgenommen worden, die später die Auswertung der Ergebnisse vereinfachen sollen.

Gewöhnung:

gewoeh_x = (gewoe_1+gewoe_2+gewoe_4)/3

Risikoaffekt:

unsich_x = (unsich_1+unsich_3+unsich_2)/3

konseq_X = (((riaffzei+riafffin+RIAFF__1+RIAFF__2+RIAFFQU1+

RIAFFQU2+riaffphy+riaffpsy +riaffsoz)/9)*riaffgew)/7

risiko_x = konseq_x*unsich_x/7

Abwechslungsaffekt:

abwaff_x = (abwaff_1+abwaff_2+abwaff_3+abwaff_4+abwaff_5+

abwaff_6+abwaff_7+abwaff_8+abwaff_9)/9

ursprüngliches Abwechslungspotential:

abwpourx = (abwpour1+abwpour2+abwpour3+abwpour4)/4

ursprüngliches Risikopotential:

konurs_x = (konfinur+konphyur+konpsyur+konquaur

+konsozur+konzeiur)/6

Involvement:

INVOLV_X = (involv_4+involv_2+involv_3)/3 .

Gesamteffekt:

gesaff_x = (gesaff_1+gesaff_2+gesaff_3+gesaff_4)/4

Die Variablen für die Risikotoleranz und das Reizbedürfnis kommen durch jeweils eine Fak­toranalyse zustande und werden folgendermaßen benannt:

Risikotoleranz: RISLUSX1

Reizbedürfnis: REIZBEX1

Wiederkaufwahrscheinlichkeit:

wkw_x = (wkw1+wkw4+wkw2+wkw3)/4

Drehen der Kurve der Abwechslungsaffekte:

abwaff2x = 8-abwaff_x

Drehen der Kurve der Risikoaffekte:

risiko2x = risiko_x-7

Skalentransformation (Logarithmieren der Gewöhnung):

gewtr_1 = LG10(gewoeh_x)

Skalentransformation (Quadrieren der Gewöhnung):

gewtr_2 = gewoeh_x ** 2

Addieren von Abwechslungs- und Risikoaffekt:

sumaff_x = abwaff2x+risiko2x

Gesamtaffekt minus Risikoaffekt:

abafkonx = gesaff_x-risiko2x

Vorwort Überprüfung der Untersuchungshypothesen

Bei den aufgestellten Hypothesen handelt es sich um Zusammen­hangs­hypothesen. Diese wer­den sämtlich im folgenden mit Hilfe von Regressionsmodellen überprüft. In einigen Fällen handelt es sich um nichtlineare Zusammenhänge. Auf Anraten eines Spezialisten[1] wurden die Daten so transformiert, daß eine lineare Regression vorgenommen werden konnte. Auch nach dieser Transformation sind die durchzuführenden Tests noch aussagekräftig oder können zumindest als Approximation angesehen werden. Auf jeden Fall ist die Anwendung des linearen Regressionsmodells für die Zwecke einer inhaltlichen Arbeit ausreichend. Nichtlineare Regres­sion ist für dieses Anwendungsgebiet übertrieben aufwendig, vielmehr eher für ökonometrische Zwecke geeignet und außerdem mit SPSS nicht befriedigend durchzuführen. Auch Bortz behandelt die nichtlineare Regression und vor allem deren inferenzstatistische Absicherung nur am Rande, da er sie als sehr komplex einstuft.[2]

Aufgrund der theoretischen Ausführungen und der Hypothesenformulierung wäre ein „Herauspartialisieren“ einzelner Variablen die eleganteste Lösung gewesen. Aufgrund von Hinweisen von Dr. Blasius wurde von diesem Verfahren jedoch abgesehen und die eigentlich „herauszupartialisierenden“ Faktoren mit in die multiple Regression hereingenommen. Mathe­matisch ist das Ergebnis äquivalent, da bei der multiplen Regression jeweils alle bis auf einen Regressor gleich null gesetzt werden. Darüber hinaus wird die multiple Regression von SPSS besser unterstützt als das „Herauspartialisieren“.

Folgende Regressionen wurden durchgeführt:

1.a Regressoren: ABWPOURX Regressand: ABWAFF2X

REIZBEX1

GEWTR_1

1.b Regressoren: ABWPOURX Regressand: ABWAFF2X

REIZBEX1

GEWTR_1

INVOLV_X

(GEWTR_1 ist die transformierte Variable GEWOEH_X. Zu diesem Zweck wurden die Daten logarithmiert.)

2.a Regressoren: KONURS_X Regressand: RISIKO2X

RISLUSX1

GEWTR_2

2.b Regressoren: KONURS_X Regressand: RISIKO2X

RISLUSX1

GEWTR_2

INVOLV_X

(GEWTR_2 ist die transformierte Variable GEWOEH_X. Zu diesem Zweck wurden die Daten ins Quadrat gesetzt. Zwar konnte durch diese Transformation nicht die Bedingung erfüllt werden, daß die zweite Ableitung zweiten Grades ist, aus der graphischen Darstellung des Konzeptes wird jedoch deutlich, daß diese Bedingung nicht so entscheidend ist. Außerdem müßte für eine entsprechende Transformation der Wert bekannt sein, ab dem das Gefälle der Kurve überproportional zunimmt. Diese Information kann aus den vorliegenden Daten nicht entnommen werden. Ansonsten werden die mathematischen Vorgaben durch diese Transforma­tion erfüllt.)

3. Regressoren: SUMAFF_X Regressand: GESAFF_X

(SUMAFF_X ist gleich der Summe aus ABWAFF2X und RISIKO2X.)

4. Regressoren: SUMAFF_X Regressand: WKW_X

(Bei der Durchführung dieser Regression wurden zuvor mit der Bedingung „EXTRI_3 ne 1“ die Daten herausgefiltert, die aufgrund einer extrinsischen Motivation keine zufriedenstellenden Ergebnisse erwarten ließen. In die Analyse gingen daraufhin 38 Frauen und 50 Männer ein.)

5. Regressoren: GESAFF_X Regressand: WKW_X

(Bei der Durchführung dieser Regression wurden zuvor mit der Bedingung „EXTRI_3 ne 1“ die Daten herausgefiltert, die aufgrund einer extrinsischen Motivation keine zufriedenstellenden Ergebnisse erwarten ließen. In die Analyse gingen daraufhin 38 Frauen und 50 Männer ein.)

6. Regressoren: ABWPOURX Regressand: ABAFKONX

REIZBEX1

GEWTR_1

Alle Auswertungen wurden jeweils getrennt nach Geschlechtern durchgeführt. Kurzversionen der Outputs sind im Anhang zu finden. Die nicht explizit im folgenden besprochenen Parameter können dort nachgelesen werden.


[1] Dr. J. Blasius, Mitarbeiter im Zentralarchiv für empirische Sozialforschung war so freundlich, sich für mich Zeit zu nehmen und mich bezüglich der Auswertung der Daten zu beraten.

[2] vgl.: Bortz, J., (1993), S. 187

Spezifizierung des Modells

Grundsätzlich ist die Voraussetzung für die Durchführung der Regressionsanalyse, daß das Regressionsmodell korrekt spezifiziert ist. Wenn dies nicht der Fall ist, dann ist von vornherein keine Abhängigkeit zu erwarten oder gefundene Abhängigkeiten können Artefakte sein. Zur Aufstellung eines Regressionsmodells ist also eine umfangreiche Vorarbeit notwendig.

Bei allen oben dargestellten Modellen wird aufgrund der umfangreichen theoretischen Vorarbei­ten davon ausgegangen, daß sie korrekt spezifiziert sind. Dabei steht fest, wie schon am Anfang der Untersuchung ausgeführt wurde, daß ein Verhalten oder auch eine Ein­stellung von einer unübersehbar großen Anzahl von Faktoren beeinflußt wird. Diese konnten und sollten nicht alle Gegenstand dieser Untersuchung sein. „Eine vollständige Modell­formulierung setzt im Prinzip das Vorhandensein erschöpfenden theoretischen Wissens über den untersuchten Zusammenhang voraus. Dieses ist jedoch aus wissenschafts­theoretischen Überlegungen heraus prinzipiell niemals möglich, sodaß das Postulat der Vollständigkeit immer nur als Leitidee zu verstehen ist.“[1]

Auf der anderen Seite wird aufgrund der theoretischen Vorarbeiten davon ausgegangen, daß die Faktoren, die mit in das Modell einbezogen wurden, einen Erklärungsgehalt für dasselbe haben.


[1] Backhaus, K.; Erichson, B.; Plinke, W.; Weiber, R., (1994), S. 31

Skalenniveau

Die Anwendung der Kleinst-Quadrate-Schätzung im Rahmen der Regressionsanalyse, setzt sowohl für die abhängige, als auch für die unabhängigen Variablen metrisches Skalennivau voraus.

Die im Fragebogen hauptsächlich verwendeten Rating-Skalen können nicht grundsätzlich als Intervallskalen, also als metrische Skalen bezeichnet werden. Es ist jedoch üblich von diesen anzunehmen, sie seien intervallskaliert und sie dann auch entsprechend zu behandeln.[1] „Hinter dieser ‚liberalen‘ Auffassung steht die Überzeugung, daß die Bestätigung einer Forschungshy­pothese durch die Annahme eines falschen Skalenniveaus eher erschwert wird.“[2] Dies ist in dieser Untersuchung umso berechtigter, als durch Verbindung mehrerer Items, von denen einige Intervallskalenniveau haben, die Annahme der Intervallskalierung noch bestärkt wird.

Bei den folgenden Untersuchungen wird deshalb davon ausgegangen, daß die verwendeten Daten intervallskalliert sind.


[1] vgl.: Backhaus, K.; Erichson, B.; Plinke, W.; Weiber, R. (1994), S. XIV

[2] Bortz, J., (1993), S. 27

Test auf Autokorrelation und Heteroskedastizität

Ein wichtiger Bestandteil der Regressionsanalyse sind die Residuen. Diese müssen eine ganze Reihe von Bedingungen erfüllen, damit die Schätzungen durch die Regressionsanalyse effizient sind.

Eine Prämisse des Regressionsmodells fordert, daß die Residuen, die ihre Ursache in den Störgrößen haben, nicht miteinander korrelieren. Wenn diese Prämisse nicht erfüllt ist, sprechen wir von Autokor­relation. Bei Zeitreihenanalysen gibt es eine sinnvolle Reihenfolge der Daten, wodurch zum Beispiel eine serielle Korrelation leicht nachgewiesen werden kann. Bei Querschnittsdaten ist die Reihenfolge der Fälle beliebig. „Das führt dazu, daß dort vorhandene Korrelationen kaum zu identifizieren sind.“[1] Aus diesem Grunde wird der Durbin/Watson-Test-Wert, der als Maßzahl der Autokorrelation üblich ist nicht berechnet. Dieser Test hat die Reihenfolge der Residuen der Beobachtungswerte zum Gegenstand der Analyse. Die Ausgangsdaten können aber durch Umstellung der Fälle beliebig geändert werden. Da die Reihenfolge der Eingabe der einzelnen Fälle rein zufällig erfolgte, hätte der Durbin/Watson-Test keine Aussagekraft. Es wird aus diesem Grunde angenommen, daß keine Autokorrelation besteht.

Eine weitere Voraussetzung des Regressionsmodells ist, daß die Varianz der Residuen homo­gen ist, das heißt, daß keine Heteroskedastizität vorliegt. Mit anderen Worten bedeutet dies, daß die Residualgröße nicht vom Betrag oder der Reihenfolge der Beobachtungen der unabhängigen Variablen beeinflußt werden darf.[2] Um diese Bedingung überprüfen zu können, eignen sich die standardisierten und studentisierten Residuen am besten.[3] Sowohl Backhaus[4], als auch Kockläuner[5] schlagen in erster Linie die Überprüfung dieser Bedingung mit Hilfe graphischer Hilfsmittel vor.

Wie oben schon ausgeführt, kann eine Abhängigkeit von der Reihenfolge der Beobachtungen ausgeschlossen werden. Zu überprüfen bleibt eine unter Umständen vorhandene Abhängigkeit vom Betrag. Die studentisierten Residuenwerte sind aufgrund ihrer Konstruktion mit den Vorhersagewerten leicht korreliert. Dies stört in diesem Fall jedoch nicht, da es nur darauf ankommt, daß die Residuenwerte mit konstanter Streuung zufällig um Null verteilt sind. Wenn sich in einem Streudiagramm eine abhängig von den Vorhersagewerten variierende Streuung der studentisierten Residuen findet, dann deutet das auf eine Verletzung der Annahme von Homoskedastizität hin.[6]

Sämtliche Diagramme zu den oben angegebenen Regressionen wurden überprüft. Keines der Streudiagramme läßt eine deutliche Abhängigkeit der Varianz von den Vorhersagewerten erkennen. Damit gilt die Bedingung der Homoskedastizität für alle Regressionsmodelle als erfüllt.


[1] Kockläuner, Gerhard, (1988), S. 70

[2] Backhaus, K.; Erichson, B.; Plinke, W.; Weiber, R. (1994), S. 35

[3] vgl.: Kockläuner, Gerhard, (1988), S. 67

[4] vgl.: Backhaus, K.; Erichson, B.; Plinke, W.; Weiber, R., (1994), S. 35

[5] vgl.: Kockläuner, Gerhard, (1988), S. 67

[6] vgl.: Kockläuner, Gerhard, (1988), S. 67

Test auf Multikollinearität

Eine weitere Voraussetzung für die Anwendbarkeit des Regressionsmodells ist die Abwesen­heit von Multikollinearität zwischen den unabhängigen Variablen. Das bedeutet, daß sich ein Regressor nicht als Linearkombination der übrigen Regressoren darstellen lassen darf. Multikol­linearität wird erst dann zum Problem, wenn eine starke lineare Abhängigkeit zwischen den Regressoren besteht.[1] Bei zwei Regressoren reicht es aus, anhand der Korrelationsmatrix zu überprüfen, ob Korrelationen bestehen. Bei drei oder mehr Regressoren läßt sich dieses Krite­rium durch die Auswertung der Toleranzen der Regressoren klären. Diese berechnen sich aus: 1-Bestimmt­heitsmaß einer Regressionsanalyse aller unabhängigen Variablen mit der jeweils zu untersuchenden unabhängigen Variablen als Regressand und den übrigen unabhängigen Varia­blen als Regressoren. Toleranzen nahe null deuten auf eine Multikollinearität der unabhängigen Variablen der eigentlichen Regressionsanalyse hin.[2]

weiblich

männlich

Regression

Regressoren

Toleranz

Toleranz

1.a

GEWTR_1

ABWPOURX

REIZBEX1

.963218

.961361

.961361

.914029

.983572

.909303

1.b

GEWTR_1

ABWPOURX

REIZBEX1

INVOLV_X

.833641

.940086

.957451

.814981

.784801

.967400

.904410

.765636

2.a

GEWTR_2

KONURS_X

RISLUSX1

.972883

.990093

.974331

.956431

.992608

.949542

2.b

GEWTR_2

KONURS_X

RISLUSX1

INVOLV_X

.701395

.988905

.962020

.720584

.786629

.991166

.945452

.803569

6.

GEWTR_1

ABWPOURX

REIZBEX1

.963218

.993834

.961361

.914029

.983572

.909303

Tab. 2 (Toleranzen)

„Eine exakte Grenze für ‚ernsthafte Multikollinearität‘ läßt sich nicht angeben.“[3] Bei derart hohen Werten, wie sie sich in der oben abgedruckten Übersicht finden, kann eine starke Kollinearität ausgeschlossen werden. Auffällig sind lediglich die Werte des Involvements und die Werte der Gewöhnung, wenn das Involvement mit in die Untersuchung einbezogen wird. Im weiteren wird davon ausgegangen, daß keine Multikollinearität zwischen den unab­hängigen Variablen besteht.


[1] vgl.: Backhaus, K.; Erichson, B.; Plinke, W.; Weiber, R. (1994), S. 33

[2] vgl.: Backhaus, K.; Erichson, B.; Plinke, W.; Weiber, R. (1994), S. 41

[3] Backhaus, K.; Erichson, B.; Plinke, W.; Weiber, R. (1994), S. 42

Normalverteilung der Variablen in der Grundgesamtheit

Voraussetzung für die Anwendung von t-Test und F-Test im klassischen Regressionsmodell ist eine Normalverteilung der Residuen. Diese Normalverteilungsannahme ist zur Kleinst-Quadrate-Schätzung der Koeffizienten des linearen Regressionsmodells an sich nicht erforderlich. Wenn diese Annahme jedoch erfüllt ist, ist der Kleinst-Quadrate-Schätzer identisch mit dem Größte-Dichte-Schätzer (=Maximum-Likelihood-Schätzer).[1]

Sowohl Backhaus[2] als auch Kockläuner[3] empfehlen zur Überprüfung der Normalvertei­lungs­an­nahme die Überprüfung anhand von graphischen Hilfsmitteln. Zu diesem Zweck bieten sich vor allem zwei graphische Unterstützungen an. An erster Stelle steht hier das Histogramm der standartisierten Residuenwerte, das über den Regressionsbefehl von SPSS zu erreichen ist. Dabei wird die Verteilung der Residuenwerte einer stilisierten Normalverteilung gegenübergestellt. Auf der anderen Seite stellt SPSS unter dem Regressionsbefehl den Normal Probability (P-P) Plot zur Verfügung. Dieses Diagramm entsteht dadurch, daß die vorliegenden standartisierten Residuenwerte der Größe nach geordnet werden, um auf der vertikalen Achse die zugehörigen Werte ihrer empirischen Verteilungsfunktion abtragen zu können. Auf der horizontalen Achse werden diesen die Funktionswerte der standartisierten Normalverteilung gegenübergestellt. Dies ist die empirische Verteilungsfunktion der Erwartungs­werte von n Ordnungsstatistiken. Letztere ergeben sich aus der größenmäßigen Anordnung von n unabhän­gigen standartisierten normal­verteilten Zufallsvariablen. Prozentpunkte deren Verteilung liefern die angesprochenen Erwartungswerte. Normal Probability Plots sind dann wie folgt zu interpre­tieren: Nach Konstruktion der Achsen sind alle Koordinatenpaare immer dann auf der stilisier­ten Gerade liegend zu erwarten, wenn die eingehenden Beobachtungen Realisationen unabhän­gig standardisierter normalverteilter Zufallsvariablen darstellen.[4]

Grundsätzlich ist davon auszugehen, daß die Normalverteilungsannahme in der Regel verletzt sein wird, weil Normalverteilungen in der Realität kaum vorkommen. Der zentrale Grenz­wertsatz liefert aber die Argumentation dafür, daß die Störgrößen im Regressionsmodell wenigstens als näherungsweise normalverteilt gelten können.[5] In diesem Zusammenhang ist je­doch die Gefahr der Supernormalität zu beachten. Kurz zusammengefaßt ist darunter zu verstehen, daß bei großen Stichproben die Residuenwerte als gewichtete Summe der Störgrö­ßen auch dann annähernd normalverteilt sein können, wenn die Störgrößen nicht einer Normal­verteilung genügen. Daher läßt die Verteilung der Residuen oft nicht die Verletzung der Nor­malverteilungsannahme erkennen. Hinzu kommt in dieser Untersuchung, daß die Konstrukte aus mehreren Items gebildet werden, was die Nicht-Normalität weiter verschleiert. „Trotzdem bleibt diese Verteilung das einzige Instrument zur Überprüfung der Normalverteilungs­annahme, die für alle n Störgrößen ui und damit n einzelne Verteilungen gelten soll.“[6] Auf die weiteren statistischen Bedingungen für die Überprüfung der Normalverteilungsannahme wird an dieser Stelle nicht eingegangen, da diese statistischen Feinheiten nicht Thema einer inhaltlichen Arbeit sein können und den Umfang der Arbeit sprengen würden. Der interessierte Leser sei auf Kockläuner[7] verwiesen. Nur soviel soll hier angemerkt werden: Für die Überprüfung der Normalitätsannahme werden die intern studentisierten Residuen betrachtet, um konstante Varianzen sicherzustellen[8]. Außer­dem sollte die Normalitätsbedingung nach Kockläuner die zuletzt zu überprüfende Bedingung sein. Dies hat den Vorteil, daß nicht von n einzelnen Verteilungen, also für jede einzelne Störgröße eine, ausgegangen werden muß, zu denen jeweils nur ein Residuenwert zur Verfü­gung steht, sondern von einem Verteilungsmodell, zu dessen Überprüfung n Residuenwerte vorliegen.[9]

Die Überprüfung der graphischen Darstellungen führte zu folgenden Ergebnissen: Weitgehend lassen die Normal Probability Plots und vor allem die Histogramme eine relativ gute Anpassung an die Normalverteilung erkennen. Stärkere Abweichungen sind vor allem bei der 3. Regression und männlichem Geschlecht und bei der 5. Regression und weiblichem Geschlecht zu erkennen. Die Graphiken sind nicht in dieser Arbeit abgedruckt, können jedoch mit Hilfe der Syntax auf der beigefügten Diskette problemlos dargestellt werden.

Zur Überprüfung der Residuen auf Normalverteilung, soll zusätzlich der Kolmogorov-Smirnov-Anpassungstest durchgeführt werden. Dieser ist für kleine Stichproben besser geeignet als der Markentreue Statistik Symbol1-Test, da letzterer nur approximativ arbeitet.[10] Im Falle eines Ablehnens der Normal­verteilungsannahme durch diesen, kann im Anschluß noch eine weitere Verteilungsüberprüfung über Schiefe und Exzeß durchgeführt werden.

Die H0 des Kolmogoroff- Smirnov-Anpassungstest lautet, daß die empirisch ermittelte Vertei­lung gleich der Normalverteilung ist. Die Alternativhypothese lautet, daß sich die beiden Verteilungen für mindestens einen Wert der unabhängigen Variable unterscheiden. Die Hypo­these H0 wird nun zum Niveau Markentreue Statistik Symbol2 verworfen, wenn Dn multipliziert mit der Wurzel aus der Anzahl der Beobachtungen, größer oder gleich dem aus der Tabelle[11] zu entnehmenden kritischen Wert ist. „Die Größe Dn gibt den größten vertikalen Abstand zwischen hypothetischer und empirischer Verteilungsfunktion an.“[12] Nun ist das Signifikanzniveau zu bestimmen. Üblicherweise wird ein Signifikanzniveau von 1% oder 5% gewählt. An dieser Stelle ist zu beachten, daß es hier darum geht, die Normalverteilungsannahme zu überprüfen und dabei den Markentreue Statistik Symbol3-Fehler, das heißt eine fälschliche Beibehaltung der Nullhypothese zu minimieren. Da sich der Markentreue Statistik Symbol3-Fehler aus 1- Markentreue Statistik Symbol2-Fehler berechnet, erscheint es sinnvoll, das Signifikanzniveau an dieser Stelle höher anzusetzen. Im Rahmen der dieser Arbeit wird deshalb ein Signifikanzniveau von 10% zur Ablehnung der Normalverteilungsannahme angesetzt.

 

weiblich

männlich

Regression

K-S-z

Signif.-Ni­veau

K-S-z

Signif.-Ni­veau

1.a

1.1021

.1761

0.8518

.4626

1.b

0.4965

.9662

0.6876

.7317

2.a

0.8341

.4898

1.0320

.2373

2.b

1.0907

.1851

0.7863

.5666

3.

1.0867

.1884

1.1211

.1618

4.

0.7999

.5444

0.7258

.6680

5.

1.0018

.2681

0.6126

.8472

6.

0.9536

.3230

0.7569

.6156

Tab. 3 (Kolmogoroff-Smirnov-Test-Wert)

Für sämtliche Regressionen liegen die Kolmogoroff-Smirnov-z-Prüfgrößen und die entspre­chenden Signifikanzniveaus über dem geforderten Mindestmaß[13]. Kritisch sind vor allem die Kolmogoroff-Smirnov-z-Prüfgrößen für die Regression 1.a (weiblich), die Regression 5. (weiblich), da hier ja nur 38 Werte in die Untersuchung eingehen und Regression 3. (männlich). Die Normalverteilungsannahme für die Residuenwerte wird trotzdem für alle Regressionen als bestätigt angesehen. Auch das dritte und fünfte Regressionsmodell werden weiter verfolgt, auch wenn vor allem bei dem dritten Modell die Werte auf eine schlechte Erfüllung der Nor­malverteilungsannahme hindeuten.


[1] vgl.: Gruber, Josef, (1982), S. 58

[2] vgl.: Backhaus, K.; Erichson, B.; Plinke, W.; Weiber, R., (1994), S. 32

[3] vgl: Kockläuner, Gerhard, (1988), S. 58 ff

[4] vgl.: Kockläuner, Gerhard, (1988), S. 58 ff

[5] vgl.: Hartung, J., (1982), S. 122

[6] Kockläuner, Gerhard, (1988), S. 73

[7] Kockläuner, Gerhard, (1988), S. 60-76

[8] vgl.: Kockläuner, Gerhard, (1988), S. 63

[9] Kockläuner, Gerhard, (1988), S. 73

[10] vgl.: Hartung, J., (1982), S. 183

[11] vgl.: Hartung; J. (1982), S. 184

[12] Hartung; J. (1982), S. 184

[13] vgl.: Hartung; J. (1982), S. 184