Zusammenhänge und Vorhersagen

6 Z-Standardisierung

6.0 Einführung

Wir haben nun schon an einigen Stellen von Standardisierung gesprochen. Bei der Berechnung der Standardabweichung, sowie bei der Berechnung der Produkt-Moment Korrelation und der Regression. Standardisierung kommt allgemein immer dann zum Einsatz, wenn es darum geht Werte auf unterschiedlichen Skalen vergleichbar zu machen.  Dies kennen wir auch aus dem Alltag: Wir können die Größe von Menschen in Metern (m), Zentimetern (cm), aber auch in Fuß (ft) oder Inch (in) messen. Hier besteht der Vorteil, dass es einheitliche Umrechnungsregeln gibt, mit Hilfe derer wir Werte auf der einen Skala, in Werte auf der anderen Skala umrechnen können. Dies ist aber nicht immer der Fall. So gibt es zum Beispiel verschiedene Sprachtests, die Sprachfähigkeiten in Englisch testen, z.B. der TOEFL, der TOEIC oder der IELTS. Jeder dieser Tests hat eine eigene Bewertungslogik für die es keine Umrechnung gibt. Doch wie können Sie nun die Sprachfertigkeiten von zwei Studierenden vergleichen, wenn sie unterschiedliche Tests absolviert haben? Noch schwieriger wird es, wenn es sich um gänzlich andere Tests handelt. So sind Personalentscheider oft mit Bewerbern konfrontiert, die in anderen Bildungssystemen gänzlich andere Abschlüsse erzielt haben. Wie kann hier eine objektive Entscheidung getroffen werden? Genau hierfür bietet die z-Standardisierung eine Lösung an. Hierbei ist die Grundidee relativ einfach: Die Werte werden an der Gesamtheit aller Werte relativiert. Es wird also z.B. die Note einer Person in einem Test, mit den Noten aller Teilnehmer dieses Tests verglichen und hieraus eine relative Position errechnet, die dann unabhängig von der zugrunde liegenden Skala mit Ergebnissen anderer Test vergleichbar ist.
Video 6.0 Z-Standardisierung | Einführung

6.1 Berechnung des Z-Werts

Wir wollen nun im Folgenden eine Methode entwickeln, mit der wir die Werte von zwei Merkmalsträgern aus unterschiedlichen Stichproben miteinander vergleichen können (z.B. Examensnoten zweier unterschiedlicher Hochschulen). Um eine Vergleichbarkeit zu erreichen, werden wir die individuellen Leistungen zuvor an der Gesamtleistung des Kollektivs (d.h. aller Werte der jeweiligen Skala) relativieren. Eine sehr einfache Möglichkeit dies zu tun, wäre den Abstand vom jeweiligen Mittelwert zu betrachten (dies nennt man auch Zentrierung). Wenn die Werte sehr weit auseinander liegen funktioniert dies auch recht gut. So könnten wir mit dieser Methode z.B. feststellen, dass ein Bewerber über den Mittelwert seiner Hochschule liegt und der andere darunter. Der Nachteil dieser Methode ist jedoch, dass dies nur dann möglich ist, wenn beide Stichproben dieselbe Skala nutzen (z.B. Schulnoten). Außerdem wird hierbei die Streuung der Verteilungen nicht berücksichtigt (diese kann bei den beiden Hochschulen sehr unterschiedlich sein). Um eine besser vergleichbare und interpretierbare Lösung zu erreichen wird daher noch eine weitere Berechnung durchgeführt. Das Ziel dabei ist es, den Abstand des Wertes zum Mittelwert nicht in der Maßeinheit der jeweiligen Skala zu betrachten, sondern basierend auf der durchschnittlichen Streuung dieser Verteilung um den Mittelwert (also der Standardabweichung ebendieser Verteilung)

Man berechnet hierzu die relative Abweichung, indem man die Abweichung vom Mittelwert in Einheiten der jeweiligen Standardabweichung darstellt. Hierdurch erhalten Werte unterschiedlicher Skalen ein einheitliches Format (den sogenannten Z-Wert) und können direkt miteinander verglichen werden. Das Ergebnis ist die Z-Standardisierung oder auch Z-Transformation

Der resultierende Z-Wert ermöglicht somit eine universell interpretierbare Aussage darüber, wie weit ein Wert vom Mittelwert entfernt ist. Ein Wert von +3 bedeutet hierbei zum Beispiel, dass die Person drei Standardabweichung vom Mittelwert entfernt ist. Da die Standardabweichung die durchschnittliche Streuung repräsentiert, bedeutet dies auch, dass die meisten Werte im Bereich +/- eine Standardabweichung um den Mittelwert liegen (mehr dazu in Kapitel 6.3). Ein Z-Wert von+ 3 ist daher schon ein sehr ungewöhnlicher Wert – also ein Ausreißer. Der Z-Wert kann hierbei positive und negative Werte annehmen. Die Interpretation des Vorzeichens hängt dabei von der zugrundeliegenden Skala ab. Nehmen wir als Beispiel die Punkte in der Statistik-Klausur. Hier würde ein Z-Wert von 3 bedeuteten, dass die Person ein extrem gutes Ergebnis erzielt hat (deutlich mehr Punkte wie die meisten anderen, die dieselbe Klausur geschrieben haben). Wäre die zugrunde liegende Skala das Notensystem (1 sehr gut – 6 ungenügend), dann würde ein Wert von +3 bedeuten, dass die Person ein sehr schlechtes Ergebnis (eine schlechtere Note als die meisten anderen) erzielt hat.

Beispiel Z-Standardisierung

Zwei Schulkameraden haben an der PISA-Studie teilgenommen, Peter im Fach Deutsch, Jakob im Fach Mathematik. Beide haben einen Wert von 620 Punkten erreicht. Nun möchten sie herausfinden, wer von beiden relativ besser abgeschnitten hat. Hierfür bringen die beiden zunächst die Kennwerte der PISA-Ergebnisse für Deutschland in Erfahrung. Diese sind:

Im Folgenden können wir nun die jeweiligen z-Werte für beide errechnen. Die Berechnung hierfür lautet:

Wie können wir nun die beiden Z-Werte Interpretieren?

Beide Schüler haben in ihren Fächern überdurchschnittlich gut abgeschnitten. Aber obwohl Peters Ergebnis auf der (ursprünglichen) Punkteskala deutlicher vom Mittelwert abweicht, ist Jakobs Ergebnis (im Vergleich mit allen deutschen Schülern) als besser zu beurteilen. Es liegt um 1,31 Standardabweichungen oberhalb vom Mittelwert; Peters Ergebnis liegt mit 1,23 Standardabweichungen weniger weit vom Mittelwert entfernt. Jakob hat damit das relativ bessere Ergebnis im PISA-Test erreicht.

Video 6.1 Z-Standardisierung | Berechnung

6.2 Transformation von Verteilungen

Mit der Z-Standardisierung lassen sich nicht nur einzelne Werte, sondern auch ganze Verteilungen standardisieren. Hierdurch wird jede beliebige Verteilung, in eine Verteilung mit dem Mittelwert 0 und der Standardabweichung 1 transformiert. Man spricht auch von einer Zentrierung der Daten, da dadurch die Verteilung immer in gleich viele positive, wie negative Werte aufgeteilt wird. Dabei gehen natürlich die Werte auf der Ursprungsskala verloren, d.h. Sie können danach zum Beispiel nicht mehr direkt ablesen, wer welche Punktzahl oder Note erreicht hat. Die relative Position der Werte und damit auch die Verteilungsform der Verteilung bleibt jedoch erhalten. Dies hat unter anderem den Vorteil, dass Verteilungsformen mit unterschiedlichen Ausgangsskalen (also z.B. Noten, Punkte etc.) verglichen werden können.

Video 6.2 Z-Standardisierung | Transformation

6.3 Die Standardnormalverteilung

Die Normalverteilung kommt in der Natur sehr häufig vor: das Gewicht von Kühen, die Größe von Bäumen, aber auch die Intelligenz von Menschen, all dies ist normalverteilt. Dabei beschreibt die Normalverteilung nur die Form der Verteilung. Der genaue Verlauf  der jeweiligen Normalverteilung wird durch den Mittelwert und die Standardabweichung bestimmt. Hierdurch ergibt sich eine Besonderheit, denn wenn wir eine beliebige Normalverteilung standardisieren kommen wir immer bei exakt der gleichen Verteilung heraus: Der sogenannten Standardnormalverteilung. Einer Normalverteilung mit Mittelwert 0 und Standardabweichung 1. Da diese Verteilung immer exakt gleich ist, lässt sich ihr Verlauf sehr genau beschreiben. Grundsätzlich können wir, über die Berechnung von Integralen, die Flächen unter dieser Funktion exakt bestimmen und können damit die Häufigkeiten, mit denen Werte in bestimmten Intervallen auftreten, festlegen. Da diese Werte jedoch immer gleich sind, müssen wir nicht jedes mal ein Integral rechnen, sondern wir können die Werte bequem aus Tabellen ablesen, die Sie z.B. im Anhang zu fast allen Statistikbüchern finden.

Wichtige Intervalle, die Sie kennen sollten:

  • Zwischen +1 und -1 Standardabweichung liegen rund 2/3 der Werte (genau 68,27%)
  • Zwischen +2 und -2 Standardabweichungen liegen rund 95% der Werte (genau 95,45%)
  • Zwischen +3 und -3 Standardabweichungen liegen über 99% der Werte (genau 99,73%).

Dies hat ganz praktische Anwendungen. Nutzen wir als Beispiel hierfür wieder die Person, die bei einem Test einen Z-Wert von 3 erreicht hat. Wir haben bereits gesagt, dass ein Z-Wert von 3 sehr selten ist und es sich um einen Ausreißer handelt. Dies können wir nun genauer spezifizieren. Wenn wir nun weiter wissen, dass die Testergebnisse (annährend) normalverteilt sind, dann können wir ableiten, dass jemand mit einem Z-Wert von 3 auf jeden Fall zu den allerbesten in dem jeweiligen Test gehört hat. Denn einen Z-Wert von 3 erreichen nur 100%-99,73% also 0,27%. Dieser Wert ist jedoch immer noch zu Groß, denn er beinhaltet noch den Bereich von unter -3 und den Bereich größer als 3 (also die Schlechtesten und Besten in dem Test). Wenn wir diesen Wert halbieren, haben wir die die tatsächliche Häufigkeit, die wir bei einem beliebigen (normalverteilten) Test für den Bereich größer als z=3 erwarten. Dieser ist 0,27% /2 also nur 0,135%. Wir können nun also sagen, dass der Kandidat mit seinem Z-Wert von 3 schon zu den ca. 0,1% besten im Test gehört, was wirklich eine tolle Leistung ist.

Diese Berechnungslogik wird im nun folgenden Kapitel – der Inferenzstatistik – von sehr großer Bedeutung sein. In folgendem Video wird diese daher nochmal kurz erläutert.

 

Video 6.3 Z-Standardisierung | Standardnormalverteilung

6.4 Z-Standardisierung in SPSS

Für die Berechnung eines Z-Wertes werden sowohl Mittelwert, als auch Standardabweichung einer Verteilung benötigt. Beide Kennwerte lassen sich zwar händisch berechnen, doch ist es in den meisten Fällen komfortabler dies mit einer Statistiksoftware wie SPSS zu machen. Die Berechnung beider Kennwerte ist über folgendes Menü möglich:

Analysieren > Deskriptive Statistiken > Deskriptive Statistik

Das Men bietet jedoch auch die Möglichkeit automatisch alle Werte einer Verteilung in Z-Werte umzurechnen und diese als neue Variable anzulegen. Hierzu machen Sie einfach einen Haken bei „Standardisierte Werte als Variablen speichern“ und im Folgenden wird für jede gewählte Variable eine neue, standardisierte Variable angelegt.

Video 6.4 Z-Standardisierung in SPSS berechnen

Lizenz

Statistik Grundlagen Copyright © Patrick Planing. Alle Rechte vorbehalten.

Rückmeldung/Errata

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.