Análisis de datos cuantitativos

Description

Mind Map on Análisis de datos cuantitativos, created by Valeria Padilla Leaños on 13/09/2018.
Valeria Padilla Leaños
Mind Map by Valeria Padilla Leaños, updated more than 1 year ago
Valeria Padilla Leaños
Created by Valeria Padilla Leaños over 5 years ago
31
0

Resource summary

Análisis de datos cuantitativos
  1. ¿Qué procedimiento se sigue para analizar cuantitativamente los datos?
    1. Una vez que los datos se han codificado, transferido a una matriz, guardado en un archivo y “limpiado” los errores, el investigador procede a analizarlos
      1. El análisis cuantitativo de los datos se lleva a cabo por computadora u ordenador. Ya casi nadie lo hace de forma manual ni aplicando fórmulas, en especial si hay un volumen considerable de datos.
      2. Proceso para efectuar análisis estadístico.
        1. Paso 1: seleccionar un programa de análisis
          1. Hay diversos programas para analizar datos
            1. El SPSS (Paquete Estadístico para las Ciencias Sociales), desarrollado en la Universidad de Chicago, es uno de los más difundidos y actualmente es propiedad de IBM®
              1. El paquete IBM® SPSS trabaja de una manera muy sencilla: éste abre la matriz de datos y el investigador usuario selecciona las opciones más apropiadas para su análisis, tal como se hace en otros programas
              2. Minitab es un paquete que goza de popularidad por su relativo bajo costo. Incluye un considerable número de pruebas estadísticas y cuenta con un tutorial para aprender a utilizarlo y practicar; además, es muy sencillo de manejar
                1. Otro programa de análisis sumamente difundido es el SAS (Sistema de Análisis Estadístico), que fue diseñado en la Universidad de Carolina del Norte. Es muy poderoso y su utilización se ha incrementado notablemente. Es un paquete muy completo para computadoras personales que contiene una variedad considerable de pruebas estadísticas (análisis de varianza, regresión, análisis de datos categóricos, análisis no paramétricos, etc.)
                  1. Por otro lado, en internet se encuentran diversos programas gratuitos de análisis estadístico para cualquier ciencia o disciplina.
                2. Paso 2: ejecutar el programa
                  1. La mayoría de los programas son fáciles de usar, pues lo único que hay que hacer es solicitar los análisis requeridos seleccionando las opciones apropiadas.
                  2. Paso 3: explorar los datos
                    1. inmediata a la ejecución del programa, se inicia el análisis. Cabe señalar que si hemos llevado a cabo la investigación reflexionando paso a paso, la fase analítica es relativamente sencilla, porque:
                      1. 1) formulamos las preguntas de investigación que pretendemos contestar
                        1. 2) visualizamos un alcance (exploratorio, descriptivo, correlacional o explicativo)
                          1. 3) establecimos nuestras hipótesis (o estamos conscientes de que no las tenemos
                            1. 4) definimos las variables
                              1. 5) elaboramos un instrumento (conocemos qué ítems o indicadores miden qué variables y qué nivel de medición tiene cada variable: nominal, ordinal, de intervalos o razón)
                                1. 6) recolectamos los datos. Sabemos qué deseamos hacer, es decir, tenemos claridad
                                  1. es necesario realizar un par de apuntes, uno sobre las variables del estudio y las variables de la matriz de datos, y el otro sobre los factores de los que depende el análisis
                                    1. Apunte 1
                                      1. Las variables de la matriz de datos son columnas que constituyen indicadores o ítems. Las variables de la investigación son las propiedades medidas y que forman parte de las hipótesis o que se pretenden describir (género, edad, actitud hacia el presidente municipal, inteligencia, duración de un material, presión arterial, etc.)
                                        1. Y cuando las variables de la investigación se integran de varios ítems o variables en la matriz, las columnas pueden ser continuas o no (estar ubicadas de manera seguida o en distintas partes de la matriz). En el cuarto ejemplo (variable “moral de los empleados”), las preguntas podrían ser las número 1, 2, 3, 4 y 5 del cuestionario; entonces, las primeras cinco columnas de la matriz representarán a estos ítems
                                      2. Apunte 2
                                        1. Los análisis de los datos dependen de tres factores
                                          1. a) El nivel de medición de las variables. b) La manera como se hayan formulado las hipótesis. c) El interés analítico del investigador (que depende del planteamiento del problema)
                                            1. El investigador busca, en primer término, describir sus datos y posteriormente efectuar análisis estadísticos para relacionar sus variables. Es decir, realiza análisis de estadística descriptiva para cada una de las variables de la matriz (ítems o indicadores) y luego para cada una de las variables del estudio, finalmente aplica cálculos estadísticos para probar sus hipótesis.
                                    2. Estadística descriptiva para cada variable
                                      1. La primera tarea es describir los datos, los valores o las puntuaciones obtenidas para cada variable. Por ejemplo, si aplicamos a 2 112 niños el cuestionario sobre los usos y las gratificaciones que la televisión tiene para ellos, ¿cómo pueden describirse estos datos? Esto se logra al describir la distribución de las puntuaciones o frecuencias de cada variable.
                                        1. ¿Qué es una distribución de frecuencias?
                                          1. Una distribución de frecuencias es un conjunto de puntuaciones respecto de una variable ordenadas en sus respectivas categorías y generalmente se presenta como una tabla
                                            1. A veces, las categorías de las distribuciones de frecuencias son tantas que es necesario resumirlas. por ejemplo se puede resumir en intervalos
                                          2. ¿Qué otros elementos contiene una distribución de frecuencias?
                                            1. Las distribuciones de frecuencias pueden completarse agregando los porcentajes de casos en cada categoría, los porcentajes válidos (excluyendo los valores perdidos) y los porcentajes acumulados (porcentaje de lo que se va acumulando en cada categoría, desde la más baja hasta la más alta)
                                              1. El porcentaje acumulado constituye lo que aumenta en cada categoría de manera porcentual y progresiva (en orden de aparición de las categorías), tomando en cuenta los porcentajes válidos.
                                                1. Las columnas porcentaje y porcentaje válido son iguales (mismas cifras o valores) cuando no hay valores perdidos; pero si tenemos valores perdidos, la columna porcentaje válido presenta los cálculos sobre el total menos tales valores
                                            2. ¿De qué otra manera pueden presentarse las distribuciones de frecuencias?
                                              1. Las distribuciones de frecuencias, especialmente cuando utilizamos los porcentajes, pueden presentarse en forma de histogramas o gráficas de otro tipo (por ejemplo: de pastel).
                                                1. SPSS, Minitab y SAS producen tales gráficas, o bien, los datos pueden exportarse a otros programas o paquetes que las generan (de cualquier tipo, a colores, utilizando efectos de movimiento y en tercera dimensión, como por ejemplo: Power Point)
                                              2. Las distribuciones de frecuencias también se pueden graficar como polígonos de frecuencias
                                                1. Los polígonos de frecuencias relacionan las puntuaciones con sus respectivas frecuencias. Es más bien propio de un nivel de medición por intervalos o razón.
                                                  1. Los polígonos se construyen sobre los puntos medios de los intervalos. Por ejemplo, si los intervalos fueran 20-24,, y siguientes; los puntos medios serían 22, . SPSS o Minitab realizan esta labor en forma automática
                                                2. ¿Cuáles son las medidas de tendencia central?
                                                  1. Las medidas de tendencia central son puntos en una distribución obtenida, los valores medios o centrales de ésta, y nos ayudan a ubicarla dentro de la escala de medición de la variable analizada. Las principales medidas de tendencia central son tres: moda, mediana y media. El nivel de medición de la variable determina cuál es la medida de tendencia central apropiada para interpretar
                                                    1. La moda
                                                      1. es la categoría o puntuación que ocurre con mayor frecuencia
                                                      2. La media
                                                        1. Es tal vez la medida de tendencia central más utilizada, y puede definirse como el promedio aritmético de una distribución. Se simboliza como X , y es la suma de todos los valores dividida entre el número de casos. Es una medida solamente aplicable a mediciones por intervalos o de razón. Carece de sentido para variables medidas en un nivel nominal u ordinal. Resulta sensible a valores extremos
                                                        2. La mediana
                                                          1. es el valor que divide la distribución por la mitad. Esto es, la mitad de los casos caen por debajo de la mediana y la otra mitad se ubica por encima de ésta. La mediana refleja la posición intermedia de la distribución
                                                      3. ¿Cuáles son las medidas de la variabilidad?
                                                        1. Las medidas de la variabilidad indican la dispersión de los datos en la escala de medición de la variable considerada y responden a la pregunta: ¿dónde están diseminadas las puntuaciones o los valores obtenidos? Las medidas de tendencia central son valores en una distribución y las medidas de la variabilidad son intervalos que designan distancias o un número de unidades en la escala de medición
                                                          1. Las medidas de la variabilidad más utilizadas son
                                                            1. El rango
                                                              1. También llamado recorrido, es la diferencia entre la puntuación mayor y la puntuación menor, e indica el número de unidades en la escala de medición que se necesitan para incluir los valores máximo y mínimo, Cuanto más grande sea el rango, mayor será la dispersión de los datos de una distribución
                                                              2. La desviación estándar
                                                                1. Es el promedio de desviación de las puntuaciones con respecto a la media, Esta medida se expresa en las unidades originales de medición de la distribución. Se interpreta en relación con la media. Cuanto mayor sea la dispersión de los datos alrededor de la media, mayor será la desviación estándar.
                                                                2. La varianza
                                                                  1. La varianza es la desviación estándar elevada al cuadrado y se simboliza como s 2 . Es un concepto estadístico muy importante, ya que la mayoría de las pruebas cuantitativas se fundamentan en él. Diversos métodos estadísticos parten de la descomposición de la varianza,
                                                            2. ¿Cómo se interpretan las medidas de tendencia central y de la variabilidad?
                                                              1. al describir nuestros datos, respecto a cada variable del estudio, interpretamos las medidas de tendencia central y de la variabilidad en conjunto, no aisladamente. Consideramos todos los valores. Para interpretarlos, lo primero que hacemos es tomar en cuenta el rango potencial de la escala
                                                              2. ¿Hay alguna otra estadística descriptiva?
                                                                1. Sí, la asimetría y la curtosis. Los polígonos de frecuencia son curvas, por ello se representan como tales para que puedan analizarse en términos de probabilidad y visualizar su grado de dispersión. Estos dos elementos resultan esenciales para analizar estas curvas o polígonos de frecuencias
                                                                  1. La asimetría es una estadística necesaria para conocer cuánto se parece nuestra distribución a una distribución teórica llamada curva normal y constituye un indicador del lado de la curva donde se agrupan las frecuencias. Si es cero (asimetría = 0), la curva o distribución es simétrica
                                                                    1. La curtosis es un indicador de lo plana o “picuda” que es una curva. Cuando es cero (curtosis = 0), significa que puede tratarse de una curva normal. Si es positiva, quiere decir que la curva, la distribución o el polígono es más “picudo” o elevado. Si la curtosis es negativa, indica que es más plana la curva
                                                                      1. La asimetría y la curtosis requieren al menos un nivel de medición por intervalos
                                                                    2. ¿Cómo se traducen las estadísticas descriptivas al inglés?
                                                                      1. Algunos programas y paquetes estadísticos computacionales pueden realizar el cálculo de las estadísticas descriptivas, cuyos resultados aparecen junto al nombre respectivo de éstas, muchas veces en inglés
                                                                      2. Nota final
                                                                        1. Debe recordarse que en una investigación se obtiene una distribución de frecuencias y se calculan las estadísticas descriptivas para cada variable, las que se necesiten de acuerdo con los propósitos de la investigación y los niveles de medición
                                                                        2. Puntuaciones z
                                                                          1. Las puntuaciones z son transformaciones que se pueden hacer a los valores o las puntuaciones obtenidas, con el propósito de analizar su distancia respecto a la media, en unidades de desviación estándar. Una puntuación z nos indica la dirección y el grado en que un valor individual obtenido se aleja de la media, en una escala de unidades de desviación estándar
                                                                          2. Razones y tasas
                                                                            1. Una tasa es la relación entre el número de casos, frecuencias o eventos de una categoría y el número total de observaciones, multiplicada por un múltiplo de 10, generalmente 100 o 1 000
                                                                            2. Corolario
                                                                              1. Hemos analizado descriptivamente los datos por variable del estudio y los visualizamos gráficamente. En caso de que alguna distribución resulte ilógica, debemos cuestionarnos si la variable debe ser excluida, sea por errores del instrumento de medición o en la recolección de los datos, ya que la codificación puede ser verificada. Supongamos que en una investigación en empresas, al medir la satisfacción laboral, resulta que 90% se encuentra “sumamente satisfecho” (¿es lógico?)
                                                                      3. Proceso para efectuar el analisis estadistico (cont)
                                                                        1. Paso 4: evaluar la confiabilidad o fiabilidad y validez lograda por el instrumento de medición
                                                                          1. La confiabilidad se calcula y evalúa para todo el instrumento de medición utilizado, o bien, si se administraron varios instrumentos, se determina para cada uno de ellos. Asimismo, es común que el instrumento contenga varias escalas para diferentes variables o dimensiones, entonces la fiabilidad se establece para cada escala y para el total de escalas
                                                                            1. Los procedimientos más utilizados para determinar la confiabilidad mediante un coeficiente son:
                                                                              1. 1. Medida de estabilidad (confiabilidad por test-retest). En este procedimiento un mismo instrumento de medición se aplica dos o más veces a un mismo grupo de personas o casos, después de cierto periodo. Si la correlación entre los resultados de las diferentes aplicaciones es muy positiva, el instrumento se considera confiable
                                                                                1. 2. Método de formas alternativas o paralelas. En este esquema no se administra el mismo instrumento de medición, sino dos o más versiones equivalentes de éste. Las versiones (casi siempre dos) son similares en contenido, instrucciones, duración y otras características, y se administran a un mismo grupo de personas simultáneamente o dentro de un periodo corto. El instrumento es confiable si la correlación entre los resultados de ambas administraciones es positiva de manera significativa (
                                                                                  1. 3. Método de mitades partidas (split-halves). Los procedimientos anteriores requieren cuando menos dos administraciones de la medición en la muestra. En cambio, el método de mitades partidas necesita sólo una aplicación de la medición. Específicamente, el conjunto total de ítems o reactivos se divide en dos mitades equivalentes y se comparan las puntuaciones o resultados de ambas.
                                                                                    1. 4. Medidas de coherencia o consistencia interna. Éstos son coeficientes que estiman la confiabilidad: a) el alfa de Cronbach (desarrollado por J.L. Cronbach) y b) los coeficientes KR-20 y KR-21 de Kuder y Richardson (1937). El método de cálculo de éstos requiere una sola administración del instrumento de medición. Su ventaja reside en que no es necesario dividir en dos mitades a los ítems del instrumento, simplemente se aplica la medición y se calcula el coeficient
                                                                                  2. Validez
                                                                                    1. La evidencia de la validez de criterio se produce al correlacionar las puntuaciones de los participantes, obtenidas por medio del instrumento, con sus valores logrados en el criterio. Recordemos que una correlación implica asociar puntuaciones obtenidas por la muestra en dos o más variables. Por ejemplo, Núñez (2001), además de aplicar su instrumento sobre el sentido de vida, administró otras dos pruebas que teóricamente miden variables similares: el PIL (Propósito de Vida) y el Logo-test de Elizabeth Lukas.
                                                                                      1. Para cada escala, una vez que se determina la confiabilidad (de 0 a 1) y se muestra la evidencia sobre la validez, si algunos ítems son problemáticos (no discriminan, no se vinculan a otros ítems, van en sentido contrario a toda la escala, no miden lo mismo, etc.), se eliminan de los cálculos (pero en el reporte de la investigación, se indica cuáles fueron descartados, las razones de ello y cómo alteran los resultados); posteriormente se vuelve a realizar el análisis descriptivo
                                                                                    2. ¿Hasta aquí llegamos?
                                                                                      1. Cuando el estudio tiene una finalidad puramente exploratoria o descriptiva, debemos interrogarnos: ¿podemos establecer relaciones entre variables? En caso de una respuesta positiva, es factible seguir con la estadística inferencial; pero si dudamos o el alcance se limitó a explorar y describir, el trabajo de análisis concluye y debemos comenzar a preparar el reporte de la investigación
                                                                                    3. Paso 5: analizar mediante pruebas estadísticas las hipótesis planteadas (análisis estadístico inferencial)
                                                                                      1. Estadística inferencial: de la muestra a la población
                                                                                        1. Estadística para probar hipótesis y estimar parámetros, La inferencia de los parámetros depende de que hayamos elegido una muestra probabilística con un tamaño que asegure un nivel de significancia o significación adecuado
                                                                                        2. ¿En qué consiste la prueba de hipótesis?
                                                                                          1. Una hipótesis en el contexto de la estadística inferencial es una proposición respecto de uno o varios parámetros, y lo que el investigador hace por medio de la prueba de hipótesis es determinar si la hipótesis poblacional es congruente con los datos obtenidos en la muestra
                                                                                            1. Una hipótesis se retiene como un valor aceptable del parámetro, si es consistente con los datos. Si no lo es, se rechaza (pero los datos no se descartan). Para comprender lo que es la prueba de hipótesis en la estadística inferencial es necesario revisar los conceptos de distribución muestral14 y nivel de significancia
                                                                                          2. ¿Qué es una distribución muestral?
                                                                                            1. es un conjunto de valores sobre una estadística calculada de todas las muestras posibles de determinado tamaño de una población (Bond, 2007a). Las distribuciones muestrales de medias son probablemente las más conocidas.
                                                                                              1. Supongamos que nuestro universo son los automovilistas de una ciudad y deseamos averiguar cuánto tiempo pasan diariamente manejando (“al volante”). De este universo podría extraerse una muestra representativa. Vamos a suponer que el tamaño adecuado de muestra es de 512 automovilistas (n = 512). Del mismo universo se podrían extraer diferentes muestras, cada una con 512 personas
                                                                                              2. distribucion normal
                                                                                                1. Distribución normal Distribución en forma de campana que se logra con muestras de 100 o más unidades muestrales y que es útil y necesaria cuando se hacen inferencias estadísticas.
                                                                                                  1. Las principales características de la distribución normal son:
                                                                                                    1. 1. Es unimodal, una sola moda. 2. La asimetría es cero. La mitad de la curva es exactamente igual a la otra mitad. La distancia entre la media y −3s es la misma que la distancia entre la media y +3s. 3. Es una función particular entre desviaciones con respecto a la media de una distribución y la probabilidad de que éstas ocurran
                                                                                                      1. 4. La base está dada en unidades de desviación estándar (puntuaciones z), destacando las puntuaciones –1s, −2s, –3s, +1s, +2s y +3s (que equivalen respectivamente a −1.00z, −2.00z, −3.00z, +1.00z, +2.00z, +3.00z). Las distancias entre puntuaciones z representan áreas bajo la curva. De hecho, la distribución de puntuaciones z es la curva normal. 5. Es mesocúrtica (curtosis de cero). 6. La media, la mediana y la moda coinciden en el mismo punto (el centro
                                                                                                2. ¿Qué es el nivel de significancia o significación?}
                                                                                                  1. Nivel de la probabilidad de equivocarse y que fija de manera a priori el investigador ( de 0 a 1)
                                                                                                    1. Existen dos niveles convenidos en las ciencias: a) El nivel de significancia de 0.05, el cual implica que el investigador tiene 95% de seguridad para generalizar sin equivocarse y sólo 5% en contra. En términos de probabilidad, 0.95 y 0.05, respectivamente; ambos suman la unidad. Este nivel es el más común en ciencias sociales. b) El nivel de significancia de 0.01, el cual implica que el investigador tiene 99% en su favor y 1% en contra (0.99 y 0.01 = 1.00) para generalizar sin temor. Muy utilizado cuando las generalizaciones implican riesgos vitales para las personas
                                                                                                  2. ¿Cómo se relacionan la distribución muestral y el nivel de significancia?
                                                                                                    1. El nivel de significancia o significación se expresa en términos de probabilidad (0.05 y 0.01) y la distribución muestral también como probabilidad (el área total de ésta como 1.00). Pues bien, para ver si existe o no confianza al generalizar acudimos a la distribución muestral, con una probabilidad adecuada para la investigación. Dicho nivel lo tomamos como un área bajo la distribución muestral, , y depende de si elegimos un nivel de 0.05 o de 0.01. Es decir, que nuestro valor estimado en la muestra no se encuentre en el área de riesgo y estemos lejos del valor de la distribución muestral, que insistimos es muy cercano al de la población
                                                                                                    2. ¿Se pueden cometer errores al probar hipótesis y realizar estadística inferencial?
                                                                                                      1. Nunca estaremos completamente seguros de nuestra estimación. Trabajamos con altos niveles de confianza o seguridad, pero, aunque el riesgo es mínimo, podría cometerse un error. Los resultados posibles al probar hipótesis son: 18 1. Aceptar una hipótesis verdadera (decisión correcta). 2. Rechazar una hipótesis falsa (decisión correcta). 3. Aceptar una hipótesis falsa (conocido como error del Tipo II o error beta). 4. Rechazar una hipótesis verdadera (conocido como error del Tipo I o error alfa)
                                                                                                        1. Ambos tipos de error son indeseables; sin embargo, puede reducirse sustancialmente la posibilidad de que se presenten mediante: a) Muestras probabilísticas representativas. b) Inspección cuidadosa de los datos. c) Selección de las pruebas estadísticas apropiadas. d) Mayor conocimiento de la población.
                                                                                                      2. análisis multivariados. Paso 7: preparar los resultados para presentarlos
                                                                                                        1. Se recomienda, una vez que se obtengan los resultados de los análisis estadísticos (tablas, gráficas, cuadros, etc.), las siguientes actividades, sobre todo para quienes se inician en la investigación
                                                                                                          1. 1. Revisar cada resultado [análisis general → análisis específico → valores resultantes (incluida la significación) → tablas, diagramas, cuadros y gráficas].
                                                                                                            1. 2. Organizar los resultados (primero los descriptivos, por variable del estudio; luego los resultados relativos a la confiabilidad y la validez; posteriormente los inferenciales, que se pueden ordenar por hipótesis o de acuerdo con su desarrollo)
                                                                                                              1. 3. Cotejar diferentes resultados: su congruencia y en caso de inconsistencia lógica volverlos a revisar. Asimismo, se debe evitar la combinación de tablas, diagramas o gráficas que repitan datos. Por lo común, columnas o filas idénticas de datos no deben aparecer en dos o más tabla
                                                                                                                1. 4. Priorizar la información más valiosa (que es en gran parte resultado de la actividad anterior), sobre todo si se van a producir reportes ejecutivos y otros más extensos.
                                                                                                                  1. 5. Copiar o “formatear” las tablas en el programa con el cual se elaborará el reporte de la investigación (procesador de textos —como Word— o uno para presentaciones, como Power Point, Flash, Prezi). Algunos programas como SPSS y Minitab permiten que se transfieran los resultados (tablas, por ejemplo) directamente a otro programa (copiar y pegar)
                                                                                                                    1. 6. Comentar o describir brevemente la esencia de los análisis, valores, tablas, diagramas, gráficas. 7. Volver a revisar los resultados. 8. Y, finalmente, elaborar el reporte de investigación
                                                                                                                  2. Prueba de hipótesis
                                                                                                                    1. Hay dos tipos de análisis estadísticos que pueden realizarse para probar hipótesis: los análisis paramétricos y los no paramétricos. Cada tipo posee sus características y presuposiciones que lo sustentan; la elección de qué clase de análisis efectuar depende de los supuestos
                                                                                                                      1. analisis parametricos
                                                                                                                        1. Para realizar análisis paramétricos debe partirse de los siguientes supuestos:19 1. La distribución poblacional de la variable dependiente es normal: el universo tiene una distribución normal. 2. El nivel de medición de las variables es por intervalos o razón. 3. Cuando dos o más poblaciones son estudiadas, tienen una varianza homogénea: las poblaciones en cuestión poseen una dispersión similar en sus distribucione
                                                                                                                          1. Ciertamente estos criterios son tal vez demasiado rigurosos y algunos investigadores sólo basan sus análisis en el tipo de hipótesis y los niveles de medición de las variables. Esto queda a juicio del lector. En la investigación académica y cuando quien la realiza es una persona experimentada, sí debe solicitársele tal rigor
                                                                                                                            1. ¿Cuáles son los métodos o las pruebas estadísticas paramétricas más utilizados?
                                                                                                                              1. Existen diversas pruebas paramétricas, pero las más utilizadas son: • Coeficiente de correlación de Pearson y regresión lineal. • Prueba t. • Prueba de contraste de la diferencia de proporciones. • Análisis de varianza unidireccional (ANOVA en un sentido). • Análisis de varianza factorial (ANOVA). • Análisis de covarianza (ANCOVA)
                                                                                                                              2. ¿Qué es el coeficiente de correlación de Pearson?
                                                                                                                                1. Es una prueba estadística para analizar la relación entre dos variables medidas en un nivel por intervalos o de razón. Se le conoce también como “coeficiente producto-momento”. Se simboliza: r, El coeficiente de correlación de Pearson se calcula a partir de las puntuaciones obtenidas en una muestra en dos variables. Se relacionan las puntuaciones recolectadas de una variable con las puntuaciones obtenidas de la otra, con los mismos participantes o casos
                                                                                                                                2. ¿Qué es la regresión lineal?
                                                                                                                                  1. Es un modelo estadístico para estimar el efecto de una variable sobre otra. Está asociado con el coeficiente r de Pearson. Brinda la oportunidad de predecir las puntuaciones de una variable a partir de las puntuaciones de la otra variable. Entre mayor sea la correlación entre las variables (covariación), mayor capacidad de predicción.
                                                                                                                                  2. ¿Qué es la prueba t?
                                                                                                                                    1. Es una prueba estadística para evaluar si dos grupos difieren entre sí de manera significativa respecto a sus medias en una variable. Se simboliza: t., Los grupos pueden ser dos plantas comparadas en su productividad, dos escuelas contrastadas en los resultados a un examen, dos clases de materiales de construcción cotejados en su rendimiento, dos medicamentos comparados en su efecto, etcétera
                                                                                                                                    2. ¿Qué es el tamaño del efecto?
                                                                                                                                      1. Al comparar grupos, en este caso con la prueba t, es importante determinar el tamaño del efecto, que es una medida de la “fuerza” de la diferencia de las medias u otros valores considerados (Creswell, 2013a; Alhija y Levy, 2009; y Cortina, 2003). Resulta ser una medida en unidades de desviación estándar. ¿Cómo se calcula? El tamaño del efecto es justo la diferencia estandarizada entre las medias de los dos grupos
                                                                                                                                      2. ¿Qué es la prueba de diferencia de proporciones?
                                                                                                                                        1. s una prueba estadística para analizar si dos proporciones o porcentajes difieren significativamente entre si, , Con esta prueba podemos analizar, por ejemplo, si el porcentaje de mujeres con cáncer de mama es significativamente diferente en dos comunidades, si el porcentaje de errores en la producción de arneses automotrices es significativamente distinto en dos plantas, si el porcentaje de reprobados es significativamente desigual entre los alumnos de bachillerato del turno matutino y del vespertino, etc.
                                                                                                                                        2. ¿Qué es el análisis de varianza unidireccional o de un factor? (ANOVA one-way
                                                                                                                                          1. Es una prueba estadística para analizar si más de dos grupos difieren significativamente entre sí en cuanto a sus medias y varianzas. La prueba t se aplica para dos grupos y el análisis de varianza unidireccional se usa para tres, cuatro o más grupos. Aunque con dos grupos se puede utilizar también
                                                                                                                                    3. analisis no parametricos
                                                                                                                                      1. Para realizar los análisis no paramétricos debe partirse de las siguientes consideraciones:29 1. La mayoría de estos análisis no requieren de presupuestos acerca de la forma de la distribución poblacional. Aceptan distribuciones no normales (distribuciones “libres”). 2. Las variables no necesariamente tienen que estar medidas en un nivel por intervalos o de razón; pueden analizar datos nominales u ordinales. De hecho, si se quieren aplicar análisis no paramétricos a datos por intervalos o razón, éstos necesitan resumirse a categorías discretas (a unas cuantas). Las variables deben ser categóricas
                                                                                                                                        1. ¿Cuáles son los métodos o las pruebas estadísticas no paramétricas más utilizados?
                                                                                                                                          1. Las pruebas no paramétricas más utilizadas son:30 1. La chi cuadrada o 2 . 2. Los coeficientes de correlación e independencia para tabulaciones cruzadas. 3. Los coeficientes de correlación por rangos ordenados de Spearman y Kendall
                                                                                                                                          2. ¿Qué es la Chi cuadrada o 2 ?
                                                                                                                                            1. Prueba estadística para evaluar hipótesis acerca de la relación entre dos variables categóricas.
                                                                                                                                              1. EJ;: a Chi cuadrada es: máquina utilizada en la fabricación de tornillos (cuatro categorías: máquina 1, máquina 2, máquina 3 y máquina 4) y calidad de la pieza (dos categorías: defectuosa o sin defectos), para analizar diferencias por máquina.
                                                                                                                                                1. La Chi cuadrada se puede obtener a través de los programas estadísticos o mediante STATS®. En SPSS el programa produce un resumen de los casos válidos y perdidos para cada variable (N y porcentaje) y una tabla de contingencia sencilla, como la 10.17, o bien una tabla más compleja con diversos resultados por celda
                                                                                                                                            2. ¿Qué son los coeficientes de correlación e independencia para tabulaciones cruzadas?
                                                                                                                                              1. Además de la Chi cuadrada, hay otros coeficientes para evaluar si las variables incluidas en la tabla de contingencia o tabulación cruzada están correlacionadas
                                                                                                                                              2. ¿Qué otra aplicación tienen las tablas de contingencia?
                                                                                                                                                1. Las tablas de contingencia, además de servir para el cálculo de Chi cuadrada y otros coeficientes, son útiles para describir conjuntamente dos o más variables. Esto se efectúa al convertir las frecuencias observadas en frecuencias relativas o porcentajes. En una tabulación cruzada puede haber tres tipos de porcentajes respecto de cada celda
                                                                                                                                            3. Otros coeficientes de correlación
                                                                                                                                              1. ¿Qué son los coeficientes y la correlación por rangos ordenados de Spearman y Kendall?
                                                                                                                                                1. Los coeficientes rho de Spearman, simbolizado como rs, y tau de Kendall, simbolizado como t, son medidas de correlación para variables en un nivel de medición ordinal (ambas), de tal modo que los individuos, casos o unidades de análisis de la muestra pueden ordenarse por rangos (jerarquías). Son coeficientes utilizados para relacionarestadísticamente escalas tipo Likert por aquellos investigadores que las consideran ordinales.
                                                                                                                                                  1. Por ejemplo, supongamos que tenemos para refrescos embotellados o sodas las variables “preferencia en el sabor” y “atractivo del envase”, y queremos asociarlas estadísticamente, entonces pedimos a un grupo de personas representativas del mercado que evalúen conjuntamente 10 marcas específicas y las ordenen del 1 al 10
                                                                                                                                                2. ¿Qué otros coeficientes hay?
                                                                                                                                                  1. Un coeficiente muy importante es el Eta, que es similar al coeficiente r de Pearson, pero con relaciones no lineales, las cuales se comentaron anteriormente. Es decir, Eta define la “correlación perfecta” (1.00) como curvilineal y a la “relación nula” (0.0) como la independencia estadística de las variables. Este coeficiente es asimétrico, cuando se revisa Lambda), y a diferencia de Pearson, se puede obtener un valor diferente para el coeficiente al determinar cuál variable se considera independiente y cuál dependiente. Eta2 es interpretada como el porcentaje de la varianza en la variable dependiente explicado por la independiente
                                                                                                                                                    1. Una vista general a los procedimientos o pruebas estadísticas
                                                                                                                                                      1. los principales métodos estadísticos. En la primera se considera: a) el tipo de pregunta de investigación (descriptiva, de diferencia de grupos, correlacional o causal), b) el número de variables involucradas, c) nivel de medición de las variables o tipo de datos y d) en comparación de grupos, si son muestras independientes o correlacionadas. En este último punto, las muestras independientes se seleccionan de manera que no exista ninguna relación entre los casos de las muestras; por ejemplo, un grupo experimental y uno de control en un experimento. No hay ningún emparejamiento de las observaciones entre las muestras. Mientras que en las correlacionadas sí existe una relación entre las unidades o participantes de las muestras
                                                                                                                                                  2. Estadística multivariada
                                                                                                                                                    1. Hasta aquí hemos visto pruebas paramétricas con una sola variable independiente y una dependiente. ¿Pero qué ocurre cuando tenemos diversas variables independientes y una dependiente, varias independientes y dependientes?
                                                                                                                                                3. Paso 6: realizar análisis adicionales
                                                                                                                                                  1. Este paso implica simplemente que una vez realizados nuestros análisis, es posible que decidamos ejecutar otros análisis o pruebas extras para confirmar tendencias y evaluar los datos desde diferentes ángulos. Por ejemplo, podemos en una tabla de contingencia calcular primero Chi cuadrada y luego Phi, Lambda, T de Cramer (C) y el coeficiente de contingencia. O después de un ANOVA, efectuar os contrastes posteriores que consideremos apropiados
                                                                                                                                                Show full summary Hide full summary

                                                                                                                                                Similar

                                                                                                                                                KEE2
                                                                                                                                                harrym
                                                                                                                                                Of Mice and Men
                                                                                                                                                amyk4321
                                                                                                                                                B6 - Brain and Mind OCR
                                                                                                                                                franimal
                                                                                                                                                STUDY PLANNER IGCSE
                                                                                                                                                Felixus
                                                                                                                                                GCSE Science - B1 - You and Your Genes - Genes, Chromosomes and DNA
                                                                                                                                                GeorgeHaines
                                                                                                                                                GCSE Computing : OCR Computing Course Revision
                                                                                                                                                RoryOMoore
                                                                                                                                                Financial Statements
                                                                                                                                                Sharon Yates
                                                                                                                                                Language Analysis
                                                                                                                                                Connie Theobald
                                                                                                                                                World War II Notebook
                                                                                                                                                jenniferfish2014
                                                                                                                                                CCNA Security 210-260 IINS - Exam 2
                                                                                                                                                Mike M
                                                                                                                                                Organic Nomenclature
                                                                                                                                                Anna Wagner