Coeficientes de correlación
Existen diversos coeficientes que miden el grado de correlación, adaptados a la naturaleza de los datos. El más conocido es el coeficiente de Pearson (introducido en realidad por Francis Galton), que se obtiene dividiendo la covarianza de dos variables por el producto de sus desviaciones estándar.
Coeficiente de correlación de Pearson
Coeficiente de correlación de Spearman
Correlación canónica
Interpretación geométrica Ambas series de valores et pueden estar consideradas como vectores en un espacio a n dimensiones. Reemplacemoslos por vectores centrados:
et .
El coseno del ángulo alfa entre estos vectores es dada por la fórmula siguiente :
Pues cos(alpha) es el coeficiente de correlación de Pearson.
¡ El coeficiente de correlación es el coseno entre ambos vectores centrados!
Si r = 1, el ángulo alfa = 0, ambos vectores son colineales (paralelos).
Si r = 0, el ángulo alfa = 90 °, ambos vectores son ortogonales.
Si r =-1, el ángulo alfa vale 180 °, ambos vectores son colineales de dirección opuesto.
Más generalmente : alpha = arcCosinus(r).
Por supuesto, del punto vista geométrica, no hablamos de correlación lineal: el coeficiente de correlación tiene siempre un sentido, cualquiera que sea su valor entre -1 y 1. Nos informa de modo preciso, no tanto sobre el grado de dependencia entre las variables, que sobre su distancia angular en la hyperesfera a n dimensiones.
La Iconografía de las correlaciones es un método de análisis multidimensional que reposa en esta idea.
lunes, 29 de septiembre de 2008
FUERZA, SENTIDO Y FORMA DE CORRELACION
Fuerza, sentido y forma de la correlación La relación entre dos variables cuantitativas queda representada mediante la línea de mejor ajuste, trazada a partir de la nube de puntos. Los principales componentes elementales de una línea de ajuste y, por lo tanto, de una correlación, son la fuerza, el sentido y la forma:
La fuerza mide el grado en que la línea representa a la nube de puntos: si la nube es estrecha y alargada, se representa por una línea recta, lo que indica que la relación es fuerte; si la nube de puntos tiene una tendencia elíptica o circular, la relación es débil.
El sentido mide la variación de los valores de B con respecto a A: si al crecer los valores de A lo hacen los de B, la relación es positiva; si al crecer los valores de A disminuyen los de B, la relación es negativa.
La forma establece el tipo de línea que define el mejor ajuste: la línea recta, la curva monotónica o la curva no monotónica
La fuerza mide el grado en que la línea representa a la nube de puntos: si la nube es estrecha y alargada, se representa por una línea recta, lo que indica que la relación es fuerte; si la nube de puntos tiene una tendencia elíptica o circular, la relación es débil.
El sentido mide la variación de los valores de B con respecto a A: si al crecer los valores de A lo hacen los de B, la relación es positiva; si al crecer los valores de A disminuyen los de B, la relación es negativa.
La forma establece el tipo de línea que define el mejor ajuste: la línea recta, la curva monotónica o la curva no monotónica
CORRELACION
Correlación
Saltar a navegación, búsqueda
En probabilidad y estadística, la correlación indica la fuerza y la dirección de una relación lineal entre dos variables aleatorias. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen también los de B y viceversa. La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad.
Saltar a navegación, búsqueda
En probabilidad y estadística, la correlación indica la fuerza y la dirección de una relación lineal entre dos variables aleatorias. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen también los de B y viceversa. La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad.
jueves, 19 de junio de 2008
MEDIDAS DE DISPERSION O VERIABILIDAD
Breve Introducción
Hasta el momento hemos estudiado los valores centrales de la distribución, pero también es importante conocer si los valores en general están cerca o alejados de estos valores centrales, es por lo que surge la necesidad de estudiar medidas de dispersión. Rango:
Es la primera medida que vamos a estudiar, se define como la diferencia existente entre el valor mayor y el menor de la distribución,. Lo notaremos como R. Realmente no es una medida muy significativa e la mayoría de los casos, pero indudablemente es muy fácil de calcular.
La primera solución puede ser calcular la media de todas las desviaciones, es decir, si consideramos como muestra la de todas las desviaciones y calculamos su media. Pero esta solución es mala pues como veremos siempre va a ser 0.
Luego por lo tanto esta primera idea no es valida, pues las desviaciones positivas se contrarrestan con las negativas.
Para resolver este problema, tenemos dos caminos:
Tomar el valor absoluto de las desviaciones. Desviación media
Elevar al cuadrado las desviaciones. Varianza.
Desviación media:
Es la media de los valores absolutos de las desviaciones, y la denotaremos por dm.
Varianza:
Es la media de los cuadrados de las desviaciones, y la denotaremos por o también por .
Aunque también es posible calcularlo como:
Este estadístico tiene el inconveniente de ser poco significativo, pues se mide en el cuadrado de la unidad de la variable, por ejemplo, si la variable viene dada en cm. La varianza vendrá en cm2.
Desviación típica:
Es la raíz cuadrada de la varianza, se denota por Sx o s x.
Este estadístico se mide en la misma unidad que la variable por lo que se puede interpretar mejor.
Otros dos estadísticos importantes son la cuasivarianza y la cuasidesviación típica, que como veremos cuando estudiemos el tema de estimación estadística, son los estimadores de la varianza y desviación típica poblacionales respectivamente.
Cuasivarianza:
Es una medida de dispersión, cuya única diferencia con la varianza es que dividimos por N-1, la representaremos por o y la calcularemos de la siguiente forma:
Cuasidesviación típica:
La raíz cuadrada de la cuasivarianza y la denotaremos por SN—1 o s N-1.
Todas estas medidas de dispersión vienen influidas por la unidad en la que se mide la variable, esto implica que si cambiamos de unidad de medida, los valores de estos estadísticos se vean a su vez modificados. Además, no permite comparar por ejemplo, en un grupo de alumnos si los pesos o las alturas presentan mas dispersión. Pues no es posible comparar unidades de distinto tipo.
Precisamos por lo tanto, una medida "escalar", es decir, que no lleve asociado ninguna unidad de medida.
Coeficiente de Variación:
Es un estadístico de dispersión que tiene la ventaja de que no lleva asociada ninguna unidad, por lo que nos permitirá decir entre dos muestras, cual es la que presenta mayor dispersión. La denotaremos por C.V.
Ejemplo
Veamos por último un ejemplo de cómo se calculan todas estas medidas.
45
55
6
6
50
300
-19,4
116,4
2258,16
15000
55
65
10
16
60
600
-9,4
94
883,6
36000
65
75
19
35
70
1330
0,6
11,4
6,84
93100
75
85
11
46
80
880
10,6
116,6
1235,96
70400
85
95
4
50
90
360
20,6
82,4
1697,44
32400
N=
50
3470
420,8
6082
246900
=
Dm=
=
C.V.=
Hasta el momento hemos estudiado los valores centrales de la distribución, pero también es importante conocer si los valores en general están cerca o alejados de estos valores centrales, es por lo que surge la necesidad de estudiar medidas de dispersión. Rango:
Es la primera medida que vamos a estudiar, se define como la diferencia existente entre el valor mayor y el menor de la distribución,. Lo notaremos como R. Realmente no es una medida muy significativa e la mayoría de los casos, pero indudablemente es muy fácil de calcular.
La primera solución puede ser calcular la media de todas las desviaciones, es decir, si consideramos como muestra la de todas las desviaciones y calculamos su media. Pero esta solución es mala pues como veremos siempre va a ser 0.
Luego por lo tanto esta primera idea no es valida, pues las desviaciones positivas se contrarrestan con las negativas.
Para resolver este problema, tenemos dos caminos:
Tomar el valor absoluto de las desviaciones. Desviación media
Elevar al cuadrado las desviaciones. Varianza.
Desviación media:
Es la media de los valores absolutos de las desviaciones, y la denotaremos por dm.
Varianza:
Es la media de los cuadrados de las desviaciones, y la denotaremos por o también por .
Aunque también es posible calcularlo como:
Este estadístico tiene el inconveniente de ser poco significativo, pues se mide en el cuadrado de la unidad de la variable, por ejemplo, si la variable viene dada en cm. La varianza vendrá en cm2.
Desviación típica:
Es la raíz cuadrada de la varianza, se denota por Sx o s x.
Este estadístico se mide en la misma unidad que la variable por lo que se puede interpretar mejor.
Otros dos estadísticos importantes son la cuasivarianza y la cuasidesviación típica, que como veremos cuando estudiemos el tema de estimación estadística, son los estimadores de la varianza y desviación típica poblacionales respectivamente.
Cuasivarianza:
Es una medida de dispersión, cuya única diferencia con la varianza es que dividimos por N-1, la representaremos por o y la calcularemos de la siguiente forma:
Cuasidesviación típica:
La raíz cuadrada de la cuasivarianza y la denotaremos por SN—1 o s N-1.
Todas estas medidas de dispersión vienen influidas por la unidad en la que se mide la variable, esto implica que si cambiamos de unidad de medida, los valores de estos estadísticos se vean a su vez modificados. Además, no permite comparar por ejemplo, en un grupo de alumnos si los pesos o las alturas presentan mas dispersión. Pues no es posible comparar unidades de distinto tipo.
Precisamos por lo tanto, una medida "escalar", es decir, que no lleve asociado ninguna unidad de medida.
Coeficiente de Variación:
Es un estadístico de dispersión que tiene la ventaja de que no lleva asociada ninguna unidad, por lo que nos permitirá decir entre dos muestras, cual es la que presenta mayor dispersión. La denotaremos por C.V.
Ejemplo
Veamos por último un ejemplo de cómo se calculan todas estas medidas.
45
55
6
6
50
300
-19,4
116,4
2258,16
15000
55
65
10
16
60
600
-9,4
94
883,6
36000
65
75
19
35
70
1330
0,6
11,4
6,84
93100
75
85
11
46
80
880
10,6
116,6
1235,96
70400
85
95
4
50
90
360
20,6
82,4
1697,44
32400
N=
50
3470
420,8
6082
246900
=
Dm=
=
C.V.=
jueves, 29 de mayo de 2008
dispersion
medidas de dispersión, por cuanto que están referidos a la variabilidadque exhiben los valores de las observaciones, ya que si no hubiere variabilidad o dispersión en los datos interés, entonces no habría necesidad de la gran mayoría de las medidas de la estadística descriptiva.
Las medidas de tendencia central tienen como objetivo el sintetizar los datos en un valor representativo, las medidas de dispersión nos dicen hasta que punto estas medidas de tendencia central son representativas como síntesis de la información. Las medidas de dispersión cuantifican la separación, la dispersión, la variabilidad de los valores de la distribución respecto al valor central. Distinguimos entre medidas de dispersión absolutas, que no son comparables entre diferentes muestras y las relativas que nos permitirán comparar varias muestras.
LA DISPERSIÓN.
Al igual que sucede con cualquier conjunto de datos, la media, la mediana y la moda sólo nos revelan una parte de la información que necesitamos acerca de las características de los datos. Para aumentar nuestro entendimiento del patrón de los datos, debemos medir también su dispersión, extensión o variabilidad.
La dispersión es importante porque:
Proporciona información adicional que permite juzgar la confiabilidad de la medida de tendencia central. Si los datos se encuentran ampliamente dispersos, la posición central es menos representativa de los datos.
Ya que existen problemas característicos para datos ampliamente dispersos, debemos ser capaces de distinguir que presentan esa dispersión antes de abordar esos problemas.
Quizá se desee comparar las dispersiones de diferentes muestras. Si no se desea tener una amplia dispersión de valores con respecto al centro de distribución o esto presenta riesgos inaceptables, necesitamos tener habilidad de reconocerlo y evitar escoger distribuciones que tengan las dispersiones más grandes.
Pero si hay dispersión en la mayoría de los datos, y debemos estar en capacidad de describirla. Ya que la dispersión ocurre frecuentemente y su grado de variabilidad es importante, ¿cómo medimos la variabilidad de una distribución empírica?. Vamos a considerar sólo algunas medidas de dispersión absolutas: el rango, la varianza, la desviación estándar y el coeficiente de variación.
Las medidas de tendencia central tienen como objetivo el sintetizar los datos en un valor representativo, las medidas de dispersión nos dicen hasta que punto estas medidas de tendencia central son representativas como síntesis de la información. Las medidas de dispersión cuantifican la separación, la dispersión, la variabilidad de los valores de la distribución respecto al valor central. Distinguimos entre medidas de dispersión absolutas, que no son comparables entre diferentes muestras y las relativas que nos permitirán comparar varias muestras.
LA DISPERSIÓN.
Al igual que sucede con cualquier conjunto de datos, la media, la mediana y la moda sólo nos revelan una parte de la información que necesitamos acerca de las características de los datos. Para aumentar nuestro entendimiento del patrón de los datos, debemos medir también su dispersión, extensión o variabilidad.
La dispersión es importante porque:
Proporciona información adicional que permite juzgar la confiabilidad de la medida de tendencia central. Si los datos se encuentran ampliamente dispersos, la posición central es menos representativa de los datos.
Ya que existen problemas característicos para datos ampliamente dispersos, debemos ser capaces de distinguir que presentan esa dispersión antes de abordar esos problemas.
Quizá se desee comparar las dispersiones de diferentes muestras. Si no se desea tener una amplia dispersión de valores con respecto al centro de distribución o esto presenta riesgos inaceptables, necesitamos tener habilidad de reconocerlo y evitar escoger distribuciones que tengan las dispersiones más grandes.
Pero si hay dispersión en la mayoría de los datos, y debemos estar en capacidad de describirla. Ya que la dispersión ocurre frecuentemente y su grado de variabilidad es importante, ¿cómo medimos la variabilidad de una distribución empírica?. Vamos a considerar sólo algunas medidas de dispersión absolutas: el rango, la varianza, la desviación estándar y el coeficiente de variación.
MEDIDAS DE POSICION
CUANTILES
Los cuantiles son medidas de posición que se determinan mediante un método que determina la ubicación de los valores que dividen un conjunto de observaciones en partes iguales.
Los cuantiles son los valores de la distribución que la dividen en partes iguales, es decir, en intervalos que comprenden el mismo número de valores. Cuando la distribución contiene un número alto de intervalos o de marcas y se requiere obtener un promedio de una parte de ella, se puede dividir la distribución en cuatro, en diez o en cien partes.
Los más usados son los cuartiles, cuando dividen la distribución en cuatro partes; los deciles, cuando dividen la distribución en diez partes y los centiles o percentiles, cuando dividen la distribución en cien partes. Los cuartiles, como los deciles y los percentiles, son en cierta forma una extensión de la mediana.
Para algunos valores u , se dan nombres particulares a los cuantiles, Q (u):
u
Q(u)
0.5
Mediana
0.25, 0.75
Cuartiles
0.1, ... , 0.99
Deciles
0.01, ..., 0.99
Centiles
CUARTILES
Los cuartiles son los tres valores que dividen al conjunto de datos ordenados en cuatro partes porcentualmente iguales.
Hay tres cuartiles denotados usualmente Q1, Q2, Q3. El segundo cuartil es precisamente la mediana. El primer cuartil, es el valor en el cual o por debajo del cual queda un cuarto (25%) de todos los valores de la sucesión (ordenada); el tercer cuartil, es el valor en el cual o por debajo del cual quedan las tres cuartas partes (75%) de los datos.
Datos Agrupados
Como los cuartiles adquieren su mayor importancia cuando contamos un número grande de datos y tenemos en cuenta que en estos casos generalmente los datos son resumidos en una tabla de frecuencia. La fórmula para el cálculo de los cuartiles cuando se trata de datos agrupados es la siguiente:
k= 1,2,3
Donde:
Lk = Límite real inferior de la clase del cuartil k
n = Número de datos
Fk = Frecuencia acumulada de la clase que antecede a la clase del cuartil k.
fk = Frecuencia de la clase del cuartil k
c = Longitud del intervalo de la clase del cuartil k
Si se desea calcular cada cuartil individualmente, mediante otra fórmula se tiene lo siguiente:
El primer cuartil Q1, es el menor valor que es mayor que una cuarta parte de los datos; es decir, aquel valor de la variable que supera 25% de las observaciones y es superado por el 75% de las observaciones.
Fórmula de Q1, para series de Datos agrupados:
Donde:
L1 = limite inferior de la clase que lo contiene
P = valor que representa la posición de la medida
f1 = la frecuencia de la clase que contiene la medida solicitada.
Fa-1 = frecuencia acumulada anterior a la que contiene la medida solicitada.
Ic = intervalo de clase
El segundo cuartil Q2, (coincide, es idéntico o similar a la mediana, Q2 = Md), es el menor valor que es mayor que la mitad de los datos, es decir el 50% de las observaciones son mayores que la mediana y el 50% son menores.
Fórmula de Q2, para series de Datos agrupados:
Donde:
L1 = limite inferior de la clase que lo contiene
P = valor que representa la posición de la medida
f1 = la frecuencia de la clase que contiene la medida solicitada.
Fa-1 = frecuencia acumulada anterior a la que contiene la medida solicitada.
Ic = intervalo de clase
El tercer cuartil Q3, es el menor valor que es mayor que tres cuartas partes de los datos, es decir aquel valor de la variable que supera al 75% y es superado por el 25% de las observaciones.
Fórmula de Q3, para series de Datos agrupados:
Donde:
L1 = limite inferior de la clase que lo contiene
P = valor que representa la posición de la medida
f1 = la frecuencia de la clase que contiene la medida solicitada.
Fa-1 = frecuencia acumulada anterior a la que contiene la medida solicitada.
Ic = intervalo de clase.
Otra manera de verlo es partir de que todas las medidas no son sino casos particulares del percentil, ya que el primer cuartil es el 25% percentil y el tercer cuartil 75% percentil.
MEDIDAS DE DISPERSION
Las medidas de dispersión muestran la variabilidad de una distribución, indicando por medio de un número si las diferentes puntuaciones de una variable están muy alejadas de la media. Cuanto mayor sea ese valor, mayor será la variabilidad, cuanto menor sea, más homogénea será a la media. Así se sabe si todos los casos son parecidos o varían mucho entre ellos.
Para calcular la variabilidad que una distribución tiene respecto de su media, se calcula la media de las desviaciones de las puntuaciones respecto a la media aritmética. Pero la suma de las desviaciones es siempre cero, así que se adoptan dos clases de estrategias para salvar este problema. Una es tomando las desviaciones en valor absoluto (Desviación media) y otra es tomando las desviaciones al cuadrado (Varianza).
Para calcular la variabilidad que una distribución tiene respecto de su media, se calcula la media de las desviaciones de las puntuaciones respecto a la media aritmética. Pero la suma de las desviaciones es siempre cero, así que se adoptan dos clases de estrategias para salvar este problema. Una es tomando las desviaciones en valor absoluto (Desviación media) y otra es tomando las desviaciones al cuadrado (Varianza).
martes, 8 de abril de 2008
LA MODA
ES CUANDO LA FRECUENCIA DE LAS TABLAS ES MAYOR.
CUANDO LOS VALORES SON REPETIDOS MAYORMENTE Y NO EXISTE LA MODA SI LOS VALORES NO SE REPITEN...
CUANDO LOS VALORES SON REPETIDOS MAYORMENTE Y NO EXISTE LA MODA SI LOS VALORES NO SE REPITEN...
martes, 12 de febrero de 2008
TIPOS DE INVESTIGACION
La investigación cualitativa: es aquella que persigue describir sucesos complejos en su medio natural, con información preferentemente cualitativa .Los principales tipos de investigación cualitativa son:· Investigación-acción: es un tipo de investigación aplicada, destinada a encontrar soluciones a problemas que tenga un grupo , una comunidad, una organización. Los propios afectados participan en la misma.;· Investigación Participativa: es un estudio que surge a partir de un problema que se origina en la misma comunidad, con el objeto de que en la búsqueda de la solución se mejore el nivel de vida de las personas involucradas. Dentro de la investigación participativa se pueden encontrar:1. Estudio de casos: es el estudio de sucesos que se hacen en uno o pocos grupos naturales;2. Estudio Etnográfico: es una investigación en la cual el investigador se inserta , camuflado en una comunidad, grupo o institución, con el objeto de observar, con una pauta previamente elaborada
d) Estudios Históricos:La investigación histórica se realiza cuando se desea estudiar des una perspectiva histórica una realidad, recurriendo a las fuentes primarias y secundarias para la reconstitución de la misma.
d) Estudios Históricos:La investigación histórica se realiza cuando se desea estudiar des una perspectiva histórica una realidad, recurriendo a las fuentes primarias y secundarias para la reconstitución de la misma.
Según el tiempo en que se efectúan:
- Investigaciones sincrónicas: son aquellas que estudian fenómenos que se dan en un corto período;- Investigaciones diacrónicas: Son aquellas que estudian fenómenos en un período lardo con el objeto de verificar los cambios que se pueden producir.
Investigación cuantitativa : es aquella que utiliza predominantemente información de tipo cuantitativo directo. Dentro de la investigación cuantitativa se pueden observar:· Los diseños experimentales (véase más arriba);· La encuesta Social : es la investigación cuantitativa de mayor uso en el ámbito de las ciencias sociales y consiste en aplicar una serie de técnicas específicas con el objeto de recoger, procesar y analizar características que se dan en personas de un grupo determinado;· Estudios cuantitativos con datos secundarios: Los cuales, a diferencia de los dos anteriores, abordan análisis con utilización de datos ya existentes.
- Investigaciones sincrónicas: son aquellas que estudian fenómenos que se dan en un corto período;- Investigaciones diacrónicas: Son aquellas que estudian fenómenos en un período lardo con el objeto de verificar los cambios que se pueden producir.
Investigación cuantitativa : es aquella que utiliza predominantemente información de tipo cuantitativo directo. Dentro de la investigación cuantitativa se pueden observar:· Los diseños experimentales (véase más arriba);· La encuesta Social : es la investigación cuantitativa de mayor uso en el ámbito de las ciencias sociales y consiste en aplicar una serie de técnicas específicas con el objeto de recoger, procesar y analizar características que se dan en personas de un grupo determinado;· Estudios cuantitativos con datos secundarios: Los cuales, a diferencia de los dos anteriores, abordan análisis con utilización de datos ya existentes.
"TIPOS DE INVESTIGACION"
según la naturaleza de los objetivos en cuanto al nivel de conocimiento que se desea alcanzar.- La investigación exploratoria: es considerada como el primer acercamiento científico a un problema. Se utiliza cuando éste aún no ha sido abordado o no ha sido suficientemente estudiado y las condiciones existentes no son aún determinantes;- La Investigación Descriptiva: se efectúa cuando se desea describir , en todos sus componentes principales, una realidad;- La investigación correlacional: es aquel tipo de estudio que persigue medir el grado de relación existente entre dos o más conceptos o variables.- Investigación explicativa: es aquella que tiene relación causal ; no sólo persigue describir o acercarse a un problema, sino que intenta encontrar las causas del mismo. Existen diseños experimentales y NO experimentales.· Diseños cuasiexperimentales: se utilizan cuando no es posible asignar al azar los sujetos de los grupos de investigación que recibirán tratamiento experimental;· Diseños experimentales: se aplican experimentos "puros", entendiendo por tales los que reúnen tres requisitos fundamentales: 1)Manipulación de una o más variables independientes; 2) Medir el efecto de la variable independiente sobre la variable dependiente ; y 3) Validadse interna de la situación experimental;· Investigaciones NO experimentales: se entiende por investigación no experimental cuando se realiza un estudio sin manipular deliberadamente las variables.
Suscribirse a:
Entradas (Atom)