Coeficiente de contingencia

El coeficiente de contingencia C (de Karl Pearson) es una medida de relación estadística. El coeficiente de contingencia de Pearson expresa la intensidad de la relación entre dos (o más) variables cualitativas ordinales o nominales. Se basa en la comparación de las frecuencias efectivamente calculadas de dos características con las frecuencias que se hubiesen esperado con independencia de estas características.

El coeficiente (coeficiente Chi-cuadrado)

El coeficiente (también llamado contingencia cuadrática),[1]​ sobre el que se basa el coeficiente de contingencia, es una medida de la "intensidad" de la relación entre las características observadas :

El valor informativo del coeficiente es reducido debido a que su límite superior, es decir, el valor que asume en el caso de la completa dependencia de las características observadas es dependiente de la magnitud (dimensión) de la tabla de contingencia (es decir de la cantidad de valores posibles de las variables) y del tamaño del universo estudiado . No está dada entonces la factibilidad de la comparación de valores del coeficiente sobre diferentes tablas de contingencia y tamaños muestrales.[1][2]​ En el caso de la completa independencia de las características, .

Rige que:[3]

siendo el número de filas y el número de columnas de la tabla de contingencia.

Usos

El valor de se necesita para determinar el coeficiente de contingencia C. En las pruebas de significación estadística también se utiliza el valor de (véase Prueba de Chi cuadrado).

Ejemplo

Sea la siguiente una tabla de contingencia proveniente de una encuesta:

automóvil tipo sedán automóvil tipo familiar     Totales
Obreros 19 18 37
Empleados 43 20 63
Totales 62 38 100

Cálculo del coeficiente :

Contingencia cuadrática media

Otra medida para especificar la intensidad de la dependencia de las características en una tabla de contingencia es la contingencia cuadrática media, que en lo esencial representa una ampliación del coeficiente :

Cuanto mayor es esta medida, tanto más intensa es la relación entre las dos características analizadas. Si ambas características (variables) son independientes, entonces cada uno de los sumandos se hace 0, a consecuencia de que se hace 0 el numerador de la fracción y con ello la medida misma también. En el caso de una tabla de contingencia de 2x2 la medida está normada y asume valores en el intervalo [0,1].

Coeficiente de contingencia de Karl Pearson

puede asumir valores en principio muy grandes y no está limitado al intervalo . Para excluir la dependencia del coeficiente de contingencia del tamaño de la muestra, se calcula sobre la base de el coeficiente de contingencia C (también denominado CC o K) de Karl Pearson:

.
donde es el tamaño de la muestra.

Este puede asumir valores en el intervalo [0,1). Resulta problemático que el límite superior del coeficiente de contingencia C sea dependiente del número de las dimensiones observadas:[4]

Aquí rige , donde el mínimo de entre la cantidad de formas posibles de la característica en las variables estudiadas.

Coeficiente de contingencia corregido

Para poder excluir, además de la influencia del tamaño de la muestra, también la influencia de la dimensión de las tablas de contingencia consideradas (el número de formas de la característica) sobre el límite superior del coeficiente y asegurar así la comparabilidad de los resultados, se utiliza con frecuencia el coeficiente de contingencia corregido (también denominado ) para medir la relación:

,

donde igual que más arriba.

Aquí rige: : Un cercano a 0 indica características independientes. cerca de 1 señala una mayor medida de dependencia entre las características.

Para el ejemplo propuesto, resulta un coeficiente de contingencia corregido .

Cramérs V

El Cramérs V (en inglés también: Cramér's V) es un coeficiente de contingencia, más precisamente, una medida de relación estadística basada en . Se denomina así en honor del matemático y estadístico sueco Harald Cramér.

El Cramérs V es una valor de medida independiente del tamaño de la muestra. Cramérs V es una medida simétrica para la intensidad de la relación entre dos o más variables de la escala nominal, cuando (por lo menos) una de las dos variables tiene por lo menos dos formas (valores posibles). En una tabla de 2x2 el Cramérs V corresponde al Coeficiente phi.

Procedimiento

.
: Total de casos (volumen de la muestra)
es el menor entre ambos valores «número de filas» (rows)" y "número de columnas (columns)"

Interpretación

En cualquier tabla de contingencia —independientemente de la cantidad de filas y columnas— Cramérs V está entre 0 y 1. Puede usarse para tablas de contingencia de cualquier tamaño. Un Cramérs V que es mayor que 0,3 es considerado en ciencias sociales como una correlación significativa.

Rango de valores [0 hasta 1]:

  • Cramérs V = 0: no hay relación entre X e Y
  • Cramérs V = 1: hay una relación perfecta entre X e Y
  • Cramérs V = 0,6: hay una correlación relativamente intensa entre X e Y

Dado que Cramérs V es un número siempre positivo, no se pueden hacer afirmaciones acerca de la dirección de la relación.

Coeficiente Phi

El coeficiente Phi (también llamado coeficiente de correlación de cuatro campos) (también ) es una medida para la intensidad de la relación entre variables dicotómicas.

Cálculo

para estimar la correlación de cuatro campos entre dos características dicotómicas A y B, se construye primeramente una tabla de contingencia que contiene la distribución de frecuencia conjunta de las variables.

  A=∅0 A=1 Total
B=0 a b a+b
B=1 c d c+d
Total a+c b+d a+b+c+d

Con los datos de la tabla se puede calcular según la fórmula

  .[5]

Ejemplos

Medida de la asociación entre

  • Aprobación o rechazo de una decisión política acerca del género,
  • Presentación o en su defecto, no presentación de un aviso publicitario y compra o no-compra de un producto.
  • Aplicación de a una matriz de confusión con dos clases.

Nota

Entre y existe la relación   bzw.  , donde designa al número de observaciones. Con ello es la raíz cuadrada (sin que importe el signo) de la contingencia media cuadrática (ver más arriba).

Como prueba de significación estadística, bajo el supuesto de que es igual a cero, tiene una distribución Chi Cuadrado con un grado de libertad.

Véase también

Bibliografía

Referencias

  1. a b Schulze, P.M. (2007), Beschreibende Statistik (9ª edición), Oldenbourg, p. 125 .
  2. Kohn, W. (2005), Statistik. Datenanalysis und Wahrscheinlichkeitsrechnung, Springer, p. 115 .
  3. Kohn, W., Ibidem, p. 114 .
  4. Toutenburg, H.; Heumann, C. (2008), Deskriptive Statistik: Eine Einführung in Methoden und Anwendungen mit R und SPSS (6ª edición), Springer, p. 115 .
  5. Rönz,, Bernd; Strohe, Hans Gerhard (compiladores) (1994), Lexikon Statistik, Wiesbaden: Gabler, p. 25 .

Enlaces externos