EL ENFOQUE
CUANTITATIVO: SUS DOS
PRINCIPALES
ANTECESORES
MOMENTOS CLAVE
sus comienzos provienen de distintas fuentes y su
evolución ha sido continua (algunos autores de la
historia de la ciencia los ubican desde Aristóteles y
otros en diferentes puntos de los siglos XVI, XVII y
XVIII).
Gottfried Achenwall (en 1748 o 1749)
acuñó el término en alemán “Statistik”
para referirse al análisis de los datos del
Estado,
En 1801, William Playfair, un
ingeniero y economista,
desarrolla las gráficas
estadísticas como un mejor
medio para representar los
resultados (anteriormente se
utilizaban tablas).
1816, Carl Friedrich Gauss propone la desviación media, y
alrededor de esa época genera el análisis de la distribución
normal y plantea la técnica de mínimos cuadrados que
posteriormente derivarían en el análisis de varianza
1880, se genera el análisis de correlación en Inglaterra y
Karl Pearson, profesor desde 1884 en The University
College (Londres), presenta en la última década del siglo
XIX: la moda (medida de tendencia central), una fórmula
producto del momento de correlación, un procedimiento
para calcular el tamaño de muestra adecuado para
representar a una población, la regresión lineal y
múltiple (con la identificación de la capacidad para
predecir puntuaciones mediante la información sobre la
correlación entre las variables), así como el coeficiente
de contin‐gencia y la chi‐cuadrada (χ2) (Creswell, 2005,
Aldrich, 2005 y Aliaga, 2000).
En 1901, Pearson junto con
Frank Raphael Weldon y
Francis Galton fundan
Biometrika, una revista que
se dedicó al desarrollo de
análisis estadísticos en el
campo de la Biología
(Norton, 1978). A finales del
siglo XIX ha nacido un pilar
del enfoque cuantitativo: la
estadística.
en la década de 1890 a
1900 se desarrollan las
primeras pruebas
mentales con los
esfuerzos de
investigadores como
Francis Galton, James
McKeen Cattell y Alfred
Binet (Lachapelle, 2008
En 1910 la armada
estadounidense, comienza a usar
pruebas psicológicas
estandarizadas, particularmente
durante la Primera Guerra Mundial
(Creswell, 2005).
1920 se continúa el desarrollo de pruebas
psicométricas y de logro, así como la
estadística inferencial (conclusiones de la
muestra a la población) se comienza a utilizar
y diversos procedimientos se fortalecen.
1932, Elton Mayo realiza sus
experimentos en la planta Hawthorne
de la compañía Western Electric, lo
que da inicio a este tipo de estudios en
las organizaciones. En la siguiente
década, se desarrollan las pruebas de
selección de personal y un sinnúmero
de tests estandarizados en diferentes
campos.
En 1935, Sir Ronald Fisher consolida en
su libro El diseño de experimentos el
análisis de varianza y las pruebas de
significancia en general, además de los
experimentos modernos.
1950, la investigación cuantitativa
se encuentra en su apogeo, surgen
diversas encuestas, experimentos,
revistas científicas, diseños,
etcétera. También comienzan a
desarrollarse las máquinas para
calificar pruebas y la computadora.
En los años de 1960, Donald T.
Campbell y Julian Stanley
(1966) generan una tipología
sobre los estudios
experimentales que priva
hasta nuestros días (incluso
en la presente obra) y un
análisis de las fuentes que
pueden atentar contra la
claridad de sus resultados.
En la década comprendida entre 1970 y 1980 se
identifican diversos modelos causales multivariados (por
ejemplo, el modelamiento de ecuaciones estructurales),
se desarrolla el metaanálisis (técnica para analizar datos
provenientes de distintos estudios con mediciones
similares) y autores como Thomas Dixon Cook y Donald
T. 7 Campbell sugieren los tipos de validez que más
recientemente se conciben como clases de evidencia
acerca de la validez (Shadish y Cook, 1998). Asimismo,
John W. Tukey empieza con el análisis exploratorio de
datos (publica en 1977).
En la década de 1980, se reta a las
aproximaciones clásicas con las pruebas
estadísticas, esto es, mediante el
examen de la magnitud de la relación
entre variables, a través de la
estimación del tamaño del efecto
(Creswell, 2005). Se introduce el
concepto de sensibilidad experimental.
En la última década del siglo XX
surgen mediciones y análisis
multivariados más complejos,
además se consolida la idea de
“poder de medición” mediante la
utilización de diferentes
instrumentos para medir las
variables de la investigación.
se origina en la obra de Auguste
Comte (1798‐1857) y Émile
Durkheim (1858‐1917), con la
influencia significativa de Francis
Bacon (1561‐1626), John Locke
(1632‐1704) e Immanuel Kant
(1724–1804). Es decir, el “abuelo” de
tal enfoque es el positivismo.
un “paradigma” es una manera
de concebir al mundo; un
conjunto de creencias y
premisas respecto a la
naturaleza de éste (Greene,
2007).
Las ideas esenciales del positivismo provienen de las
denominadas ciencias “exactas”, como la Física, la
Química y la Biología; por tal motivo, los positivistas se
fundamentaron en científicos como Galileo Galilei
(1564‐1642), Isaac Newton (1642‐1727),1 Nicolás
Copérnico (1473‐1543), Thomas Robert Malthus
(1766‐1834) y Charles Darwin (1809‐ 1882).2 Así, “el
mundo social puede estudiarse de manera similar al
mundo natural”
paraaxiomas el positivismo, la objetividad es muy importante, el
investigador observa, mide y manipula variables;
además de que se desprende de sus propias tendencias
(la relación entre éste y el fenómeno de estudio es de
independencia). Lo que no puede medirse u observarse
con exactitud se descarta como “objeto” de estudio.
Además, éste se encuentra determinado por leyes y
El positivismo solamente acepta
conocimientos que proceden de la
experiencia, esto es, de datos empíricos. Los
hechos son lo único que cuenta. Es decir, los
positivistas establecen como fundamental el
principio de verificación:
este paradigma considera que es
posible establecer generalizaciones
libres del contexto y del tiempo, así
como vínculos causales (causas reales
que preceden temporalmente a los
efectos). La experimentación
constituyó la forma principal para
generar teoría.
El positivismo (muy rígido) fue remplazado
por el “pospositivismo”, fundamentado en el
paradigma anterior, pero más abierto y
flexible
Tal visión comienza a gestarse hacia fines del
siglo XIX, pero realmente se consolida hacia la
mitad del siglo pasado
Wilhelm Dilthey (1833‐1911) y William James (1842‐1910).
Karl Popper (1902‐1994) • Existe una realidad, pero solamente
puede ser conocida de manera imperfecta debido a las
limitaciones humanas del investigador (Mertens, 2005). Por
tanto, tal realidad es factible descubrirla con cierto grado de
probabilidad.
la diferencia esencial entre el
paradigma positivista y el
pospositivista se ubica en su
concepción del conocimiento
El pospositivismo es una
especie de “padre” del enfoque
cuantitativo y le otorga tres
principales elementos que lo
caracterizan:
El pospositivismo es una especie de “padre” del enfoque cuantitativo y le otorga tres
principales elementos que lo caracterizan: 1. Recolectar datos en la forma de
puntuaciones (que se origina en las matemáticas). Es decir, los atributos de
fenómenos, objetos, animales, personas, organizaciones y colectividades mayores
son medidos y ubicados numéricamente. 2. Analizar tales datos numéricos en
términos de su variación. 3. La esencia del análisis implica comparar grupos o
relacionar factores sobre tales atributos mediante técnicas estadísticas (en el caso de
las ciencias del comportamiento, mediante experimentos y estudios causales o
correlacionales).
En la última década del siglo XX surgen mediciones y
análisis multivariados más complejos, además se consolida
la idea de “poder de medición” mediante la utilización de
diferentes instrumentos para medir las variables de la
investigación.
MOMENTOS CLAVE
1920, un grupo de investigadores conocidos como la Escuela de
Chicago comenzaron a realizar diversos estudios cualitativos, entre
los autores destacan: Albion Small, William Isaac Thomas, Florian
Znaniecki y el filósofo George Herbert Mead.
Thomas y Znaniecki publicaron una investigación
en 1927 sobre los inmigrantes polacos, en la cual
se utiliza la biografía de los participantes como
herramienta de recolección de los datos. Otros
estudios se centraron en culturas específicas y
grupos urbanos marginados
en 1928 y 1930, respectivamente
(Sullivan, 2004; Mead, 2001); y para
1932, un libro que reseña su
indagación sobre la cultura de una
tribu india. Posteriormente, en la
misma década se agregaron otros
estudios de Robert E. Park y Ernest
W. Burgess.
En las décadas de 1940 y 1950 decayó la importancia del enfoque
cualitativo debido al posicionamiento de su “rival” cuantitativo (Gobo,
2005), y a que la Segunda Guerra Mundial exigía estudios basados en
mediciones y estadística para la industria bélica, de construcción e incluso
la propaganda (Hernández Sampieri y Mendoza, 2008); aunque se
realizaron algunos trabajos etnográficos de investigadores como Elizabeth
y Allison Davis, y Burleigh y Mary Gardner, que estudiaron las clases
sociales en Natchez, Mississippi, Estados Unidos; al igual que Conrad
Arensberg, quien hizo algunas investigaciones similares en Irlanda.
En la década de 1960, el enfoque cualitativo
recobra vitalidad e importancia. La
etnometodología surge con vigor. Peter L. Berger y
Thomas Luckmann en 1966 presentan sus modelos
de construcción de la realidad (Berger y Luchmann,
1966).
Philip W. Jackson publica un trabajo cualitativo
derivado de sus estudios en las aulas (1968). A
esta época se le denomina la “primera
encrucijada del paradigma cualitativo” (Shank,
1995). Asimismo, Paulo Freire comienza con la
investigación participativa en América Latina,
específicamente en Brasil..
En la década de 1970, el enfoque cualitativo continúa
popularizándose. Norman K. Denzin (1970) reanaliza
el concepto de triangulación. Egon G. Guba consolida
la propuesta de un enfoque alternativo, el naturalista
(1978). La teoría Fundamentada continúa
evolucionando. Herbert Blumer desarrolla el
interaccionismo simbólico (Álvarez Gayou, 2002).
Yvonna Lincoln y Guba (1985) identifican diferencias
entre el naturalismo y otras clases de investigación.
Strauss publica en 1987 su obra: Qualitative analysis
for social scientists. Cabe destacar que la
investigación bajo el marco de referencia feminista,
se desarrolla notablemente en esta década con los
trabajos de McRobbie (1982), Patai (1983), Clegg
(1985), Cook y Fonow (1986), y McCormack (1989).4
En la década de 1990, Strauss y Corbin (1990 y
1994) publican procedimientos más avanzados
sobre La Teoría Fundamentada, y LeCompte,
Milroy and Preissle (1992) presentan nuevos
esquemas etnográficos. De igual forma, Denzin
y Lincoln (1994) muestran alternativas del
proceso cualitativo.
A partir de 2000, es un hecho que pocos dudan ya de lo
valioso del enfoque cualitativo. Clandinin y Connelly
(2000) revitalizan los diseños narrativos; mientras que
Kemmis y McTaggart (2000) hacen lo mismo con la
investigación participativa.
Hacia el final de la primer década del siglo surgen textos de metodología cualitativa aplicada a diferentes disciplinas:
Relaciones Públicas y Mercadotecnia (Daymon, 2010), Geografía Humana (DeLyser et al., 2009) y Educación (Luttrell, 2009),
solamente por mencionar algunas
enfoque cualitativo realmente se inicia
como un proceso investigativo a finales
del siglo XIX y sobre todo en el comienzo
del siglo XX, aunque algunos
arqueólogos realizaron estudios
inductivos en la mitad del XIX.
Mertens (2005) en que el constructivismo es
tal vez el paradigma que influyó más en el
enfoque cualitativo 8 (ciertamente muchos
diferirán, pero su peso es innegable). Éste
tiene sus primeros cimientos con Immanuel
Kant (siglo XVIII), quien señala básicamente
que el mundo que conocemos es construido
por la mente humana. Las “cosas” en sí
mismas existen, pero nosotros las
apreciamos del modo como es capaz de
percibirlas nuestra mente.
El constructivismo propone
No hay una realidad objetiva, la realidad es edificada socialmente, por
consecuencia, múltiples construcciones mentales pueden ser “aprehendidas” sobre
ésta, algunas de las cuales pueden estar en conflicto con otras; de este modo, las
percepciones de la realidad son modificadas a través del proceso del estudio
(Mertens, 2005). 2. El conocimiento es construido socialmente por las personas que
participan en la investigación.·La tarea fundamental del investigador es entender el
mundo complejo de la experiencia vivencial desde el punto de vista de quienes la
experimentan, así como comprender sus diversas construcciones sociales sobre el
significado de los hechos y el conocimiento. 3. La investigación es en parte
producto de los valores del investigador y no puede ser independiente de ellos. 4. El
investigador y los individuos estudiados se involucran en un proceso interactivo. El
conocimiento resulta de tal interacción social y de la influencia de la cultura. 5. No
es posible establecer
Entre algunos de los autores que durante el siglo
XX influyeron en el desarrollo del constructivismo
tenemos a Mary Parker Follett (1868‐1933), en el
campo de la Administración y las organizaciones;
Jean Piaget (1896‐1980) y Lev Semenovich 9
Vygotsky (1896‐1934) en la Educación y John Dewey
(1859‐1952) en la Pedagogía; así como Margaret
Mead (1901‐1978) en la Antropología.
El constructivismo como uno de los “padres”3
del enfoque cualitativo le otorga los énfasis
principales que lo caracterizan:
El reconocimiento de que el investigador necesita encuadrar en los
estudios los puntos de vista de los participantes. • La necesidad de inquirir
cuestiones abiertas. • Dado que el contexto cultural es fundamental, los
datos deben recolectarse en los lugares donde las personas realizan sus
actividades cotidianas. • La investigación debe ser útil para mejorar la
forma en que viven los individuos. • Más que variables “exactas” lo que se
estudia son conceptos, cuya esencia no solamente se captura a través de
mediciones.
EL ENFOQUE MIXTO: LA TERCERA VÍA
surge como consecuencia de la necesidad de afrontar la
complejidad de los problemas de investigación
planteados en todas las ciencias y de enfocarlos
holísticamente, de manera integral. En 1973, Sam Sieber
(citado por Creswell, 2005) sugirió la combinación de
estudios de caso cualitativos con encuestas, creando “un
nuevo estilo de investigación” y la integración de
distintas técnicas en un mismo estudio.
Hernández Sampieri y Mendoza (2008), dos
nociones fueron importantes para la
concepción de la investigación mixta: la
referente a la triangulación y la de utilización de
varios métodos en un mismo estudio para
incrementar la validez del análisis y las
inferencias.
La idea de la triangulación, la
cual durante años impulsó el
enfoque cualitativo al referirse
a la triangulación de distintas
fuentes para verificar los datos,
fue aplicada a los 13 métodos
cuantitativo y cualitativo.
La utilización simultánea de diferentes
procedimientos de indagación fue
“catapultada” en la matriz de
multimétodos‐multirasgos de Campbell y
Fiske (1959), quienes sostenían que el
hecho de utilizar varios métodos para
medir las variables de interés
incrementaba la validez convergente y
discriminante del instrumento o
instrumentos para recolectar los datos
(Jacobson y Carlson, 1973; Jackson, 1977;
Hubert y Baker, 1978).
En los años de 1970 y 1980, se manifestó la denominada “guerra de los paradigmas”,
tal vez en parte debida a la noción popularizada por Tomas Kuhn (1962) de los
“paradigmas en competencia” en su libro La estructura de las revoluciones
científicas (Teddlie y Tashakkori, 2009). El caso es que la rivalidad entre los
seguidores del enfoque cuantitativo y cualitativo fue abierta, con los argumentos
mencionados en el capítulo 1 del texto impreso “Definiciones de los enfoques
cuantitativo y cualitativo, sus similitudes y diferencias”. La tesis generalizada fue la
de la “incompatibilidad de paradigmas
el desarrollo de los métodos mixtos fue posible en parte a:
1) la introducción de una variedad de nuevos instrumentos
metodológicos tanto cuantitativos como cualitativos, 2) la
vertiginosa evolución de las nuevas tecnologías para
accesar y utilizar las herramientas metodológicas más
fácilmente (hardware y software e internet), y 3) el
incremento en la comunicación a través de las distintas
ciencias y disciplinas.
Tashakkori y Teddlie (1998) proporcionaron otras
posibilidades para análisis en los diseños mixtos y revisan
la reciente historia de los métodos mixtos. Durante esta
década el enfoque mixto se aplica en diversos campos,
como la Educación, la Comunicación, la Psicología, la
Medicina y la Enfermería. Se realizan varios congresos
para debatir el tema. Denzin y Lincoln (2000) presentaron
una amplia discusión sobre la triangulación.
En años recientes (2008 a 2010),
el incremento en los textos de
metodología mixta ha sido
considerable, los nombres de los
pioneros en esta materia, como
John Creswell, Abbas Tashakkori,
Alan Bryman, Donna Mertens,
Janice Morse, Michael
En América Latina, la propuesta de los métodos mixtos ha
provenido, desde 1993, de algunos autores y se ha
consolidado en el trabajo de Hernández Sampieri y
Mendoza (2008). El siglo XX inició con un enfoque principal,
el cuantitativo, y culminó con dos enfoques
fundamentales: cuantitativo y cualitativo. No es el caso de
que uno sustituyera al otro, sino que el segundo se agregó
al primero. El siglo XXI comenzó con una tercera vía (que
se vino gestando desde décadas atrás): el enfoque mixto.
Los próximos años son fundamentales para que este
adolescente (o híbrido) siga consolidándose.