CAPITULO III LOS METODOS DE INVESTIGACION SOCIAL |
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
PLAN DEL CAPITULO III Objetivo: En este capítulo se describen algunos criterios para la clasificación de los estudios, se hace énfasis en los métodos de investigación social. Se presenta una introducción a la teoría del muestreo.
3.1 Clasificación de las Investigaciones Las características de una investigación dependen del propósito que se pretende alcanzar. Éstas son determinantes para el nivel de complejidad de la investigación y el tipo de estudio que se intenta desarrollar. Existen diversos criterios que permiten definir el tipo de investigación entre los cuales se encuentran los siguientes: 3.1.1 Por Periodo. Este criterio permite clasificar las investigaciones de acuerdo al periodo de tiempo en que ocurren en estudios transeccionales y longitudinales. Es investigación no experimental. a) Estudios Transeccionales: En los estudios de tipo transeccional o transversal la unidad de análisis es observada en un solo punto en el tiempo. Se utilizan en investigaciones con objetivos de tipo exploratorio o descriptivo para el análisis de la interacción de las variables en un tiempo específico. Son ejemplos de este tipo de estudio los procedimientos médicos de biopsias y rayos X que al aplicarse a un ser humano permiten descubrir el estado actual de su organismo y hacer inferencias de lo que le esta ocurriendo, es decir, la información derivada de los mismos ayuda a establecer pronósticos de lo que pudiera ocurrir. Un estudio transeccional puede incluir uno o más grupos o subgrupos de unidades de observación o análisis. Las investigaciones transeccionales se puede clasificar en estudios transeccionales descriptivos y correlacionales. El propósito de los primeros es la descripción de las características medidas en uno o más grupos, por ejemplo, un estudio descriptivo sobre el número de menonitas que cumplen el servicio militar nacional en los estados de Chihuahua, Durango y Zacatecas. Los segundos tienen como propósito descubrir el grado de asociación entre dos o más variables medidas en uno o más grupos en un periodo único de tiempo. Algunas veces puede llegar a nivel correlacional-causal. Un ejemplo de este tipo de estudio es una investigación que intenta correlacionar el éxito profesional con el tipo de carrera universitaria y los ingresos económicos de los egresados del Instituto Tecnológico de Cd. Cuauhtémoc cuya edad fluctúa entre 25 y 35 años. b) Estudios Longitudinales: En los estudios longitudinales la unidad de análisis es observada en varios puntos en el tiempo. Los tres tipos básicos de investigación longitudinal son los estudios de tendencia, evolución de grupo y tipo panel. Los estudios de tendencia (del inglés trend) comparan datos a través de intervalos de tiempo en diferentes objetos (Baker, 1997). Es decir, la base de un estudio de tendencia es el análisis y comparación de datos similares colectados en diferente tiempo y en diferentes unidades de análisis que corresponden a la misma población de estudio. Esto se puede ejemplificar de la siguiente manera, en un estudio sobre la opinión sobre las crisis económicas recurrentes que viene sufriendo México desde 1972 hasta 1999, pueden cambiar las personas pero la población de estudio seguirá siendo la misma. En los estudios de evolución de grupos (del inglés cohort) la medición de la variable se aplica a la misma población en diferentes puntos en el tiempo para medir cambios en subgrupos o grupos. El grupo es el mismo a través del tiempo, lo que cambia son sus integrantes. Un cohort es un grupo de personas que nacieron en el mismo periodo de tiempo (Baker, 1997) por ejemplo, los soldados del servicio militar nacional clase 1960. También se puede referir a personas que participaron en eventos de tipo histórico, por ejemplo, los sobrevivientes del movimiento del primero de enero de 1994 en Chiapas con el Ejército de Liberación Zapatista. De acuerdo con Baker (1997) los estudios tipo panel son uno de los mejores medios para medir cambios en las personas a través del tiempo. A diferencia de los estudios de tendencia y evolución de grupo, los estudios tipo panel evalúan una y otra vez al mismo grupo de personas con el propósito de descubrir si ocurren cambios en las características medidas. Por ejemplo, una entrevista de opinión sobre la sucesión presidencial del año 2000 en México debe hacerse dos o más ocasiones separadas en el tiempo al mismo grupo de personas o unidades de análisis para verificar si cambiaron de opinión o sí permanecen sin cambio. Los estudios tipo panel aplican formas mucho más rigurosas de análisis que los estudios de tendencia y evolución de grupo. 3.1.2 Por Objetivos Este criterio permite clasificar la investigación por su nivel de complejidad de acuerdo al objetivo que pretende. El diseño y la metodología es distinta en estudios de tipo exploratorio, descriptivo, correlacional y experimental.
En resumen la metodología de la investigación es un proceso continuo (Leedy, 1993), dinámico que se va desarrollando y en este sentido la metodología se modifica. Para cada tipo de estudio tiene que diseñarse un tipo específico de metodología de investigación. La naturaleza del PON y de los datos son elementos determinantes del tipo de metodología a utilizar. 3.2 Investigación Documental En la abundante literatura existente sobre la técnica de investigación documental, destacan las siguientes definiciones: Baena (1985) “la investigación documental es una técnica que consiste en la selección y recopilación de información por medio de la lectura y crítica de documentos y materiales bibliográficos, de bibliotecas, hemerotecas, centros de documentación e información, “ (p. 72). Garza (1988) presenta una definición más específica de la investigación documental. Este autor considera que ésta técnica “...se caracteriza por el empleo predominante de registros gráficos y sonoros como fuentes de información..., registros en forma de manuscritos e impresos,” (p. 8). Franklin (1997) define la investigación documental aplicada a la organización de empresas como una técnica de investigación en la que “se deben seleccionar y analizar aquellos escritos que contienen datos de interés relacionados con el estudio...,” (p. 13). Las anteriores definiciones coinciden en que la investigación documental es una técnica que permite obtener documentos nuevos en los que es posible describir, explicar, analizar, comparar, criticar entre otras actividades intelectuales, un tema o asunto mediante el análisis de fuentes de información. El desarrollo de un proceso de investigación documental completo da como producto diferentes tipos de trabajos documentales entre los que se encuentran compilaciones, ensayos, críticas valorativas, estudios comparativos, memorias, monografías entre otros (ver Baena, 1985; Tenorio, 1992). Con el propósito de diferenciarlos se procederá a dar una breve explicación de cada uno de ellos. a) Compilación: Es un estudio que integra y relaciona materiales dispersos elaborados por diversos autores, sobre una temática determinada, obteniendo como producto una investigación general del tema en cuestión. b) Ensayos: Son estudios de tipo argumentativo en los que se presentan opiniones, teorías, hipótesis, etc., mediante una actividad analítica y crítica. El ensayo que se enfoca a cuestiones científicas requiere de un proceso que expresa conclusiones que son determinadas por las pruebas, es decir, las pruebas son condiciones necesarias para llegar a concluir algo. c) Crítica Valorativa: tiene como característica esencial el señalar cualidades y defectos de obras de tipo artístico, científico o filosófico. d) Estudios Comparativos: Este tipo de estudio se utiliza para evaluar las semejanzas y diferencias de corrientes del pensamiento, autores y teorías. e) Memorias: Son documentos que presentan una síntesis de las actividades efectuadas en un periodo específico (Baena, 1991). También se les define como la presentación de información acerca de una serie de actividades. Su principal característica “...es que puede eludir la conclusión,” (Mendieta, 1982, p. 72) f) Monografía: Es el estudio exhaustivo de un tema específico. 3.2.1 Etapas de la Investigación Documental En cualquiera de las modalidades descritas en la sección anterior, una investigación documental consta de las siguientes etapas:
Para la elaboración de la propuesta de investigación se puede seguir el formato especificado en la sección 2.5 del capítulo II, con la diferencia de que en una investigación documental no se sometan a comprobación hipótesis como ocurre por ejemplo en una investigación de tipo experimental. Sin embargo, si debe de especificarse de manera clara los objetivos, el planteamiento del PON, la metodología, la revisión de la literatura, fuentes preliminares de información, calendarización de actividades y un guión preliminar o tabla de contenido propuesto sobre el trabajo que se pretende desarrollar. La colección de la información requiere de diseñar sistemas de registro de datos e información, por lo general se utilizan fichas de trabajo cuyo formato es el se presenta en la Figura 3.1. Las fichas de trabajo son de fácil manejo y permiten una adecuada organización de los datos colectados, en función del guión preliminar es posible ordenar las fichas de acuerdo al tema o capítulo en que se habrán de utilizar.
La etapa de organización, análisis e interpretación puede iniciarse únicamente cuando ha concluido la fase de colección. Las fichas de trabajo servirán como precedente para desarrollar el contenido del documento, los datos registrados en ellas tendrán que ser sometidos a análisis en torno a los objetivos planteados en la planeación de la investigación y al problema especifico que se investiga. Finalmente se presentará el documento final en el que se dan a conocer los resultados obtenidos. El formato para el informe de resultados en la modalidad de monografía se puede adaptar para otro tipo de trabajo documental e incluye los siguientes elementos:
3.3 La Encuesta La investigación por encuesta es considerada como una rama de la investigación social científica orientada a la valoración de poblaciones enteras mediante el análisis de muestras representativas de la misma (Kerlinger, 1983). De acuerdo con Garza (1988) la investigación por encuesta “... se caracteriza por la recopilación de testimonios, orales o escritos, provocados y dirigidos con el propósito de averiguar hechos, opiniones actitudes,” (p. 183). Para Baker (1997) la investigación por encuesta es un método de colección de datos en los cuales se definen específicamente grupos de individuos que dan respuesta a un número de preguntas específicas. En resumen las anteriores definiciones indican que la encuesta se utiliza para estudiar poblaciones mediante el análisis de muestras representativas a fin de explicar las variables de estudio y su frecuencia. La instrumentación consiste en el diseño de un cuestionario o de una cédula de entrevista elaborados para medir opiniones sobre eventos o hechos específicos. Los dos anteriores instrumentos se basan en una serie de peguntas. En el cuestionario las preguntas son administradas por escrito a unidades de análisis numerosas. En una entrevista las respuestas a las cuestiones pueden escribirse en la cédula de entrevista o puede llevarse en una interacción cara a cara. De acuerdo a la forma de obtención de la información las encuestas se clasifican en:
a) Entrevista: Una entrevista es una pieza de la interacción social en la cual una persona responde a otra una serie de preguntas sobre un tópico específico, en sí representa una interacción cara a cara entre dos o más personas. La entrevista representa una excelente técnica de recolección de la información. La administración de las preguntas se hace en base a una cédula de entrevista o programa de entrevista, las respuestas que se obtienen pueden ser registradas por medios electrónicos o por escrito. Para lograr una entrevista exitosa la cédula de entrevista requiere de integrar instrucciones claras y precisas acerca de lo que hará o se espera que haga el entrevistado. Con frecuencia suelen administrarse en el transcurso de la sesión práctica. Las preguntas deben redactarse y plantearse de manera directa, clara y con un lenguaje sencillo no rebuscado ni ambiguo. Esto facilita que el entrevistado puede leer o entender fácilmente el cuestionamiento evitando así las posibles distorsiones. En otras palabras es necesario asegurarse de que la pregunta mida lo que pretende medir. En aquellas preguntas en que se establezcan alternativas de respuesta deben considerarse cuidadosamente todas las posibles alternativas. Se debe hacer un trabajo exhaustivo sin que ello signifique provocar una respuesta vaga y sin sentido. Las preguntas deben presentar un orden que encadene rápidamente las respuestas y mantenga el interés en el tema de la entrevista. Kerlinger (1983) sugiere que en el proceso de desarrollo de la entrevista se administre una serie de preguntas de tipo embudo y de sondeo. Las primeras constituyen un tipo especial de preguntas no estructuradas que tienen como propósito obtener información adicional sobre el tema en cuestión. Este tipo de preguntas comienzan con un cuestionamiento muy amplio y paulatinamente se van reduciendo a aspectos específicos de interés. Las segundas son cuestionamientos que permiten medir y conocer la información que los entrevistados manejan sobre la temática a tratar y además permiten averiguar en cierta forma los motivos de las respuestas que da el entrevistado, así por ejemplo, cuestionamientos como: ¿puede ampliar un poco más su respuesta? ¿puede se más específico en su respuesta? ¿puede explicar de forma más precisa su punto de vista?, etc. son ejemplos de preguntas de sondeo. Como ya se indico la entrevista es una técnica clave para obtener información relevante. Algunas técnicas de entrevista importantes son la entrevista preliminar, de fondo, para sondeo rápido, de posición y de comprobación de hipótesis (Fleitman, 1998). Las anteriores técnicas se explican en la Figura 3.2 Cuestionario por Correo: Es una variante de la encuesta y consiste en enviar a la muestra de estudio los cuestionarios vía correo postal. Esta técnica por si sola no tiene mucha validez y confiabilidad debido a los principales inconvenientes que posee entre los que destacan la posible omisión de respuestas y la incapacidad de comprobar las respuestas que se reciben. Frecuentemente la cantidad de cuestionarios contestados que son recuperados es insuficiente para establecer generalizaciones por lo que es necesario enviar constantemente recordatorios para tratar de obtener más cuestionarios contestados. Para que exista cierto nivel de validez y confiabilidad debe recuperarse al menos entre un 80 % y un 90 % de los cuestionarios enviados. b) Entrevista tipo Panel: La entrevista tipo panel es una técnica que se utiliza para verificar la existencia o ausencia de cambios operados en las personas entrevistadas.
La técnica requiere de seleccionar y entrevistar a una muestra por lo menos dos ocasiones separadas en el tiempo, es decir, después de la primera entrevista se les vuelve a entrevistar por segunda ocasión. c) Entrevista por Teléfono: En esta técnica se procede a entrevistar vía telefónica a la muestra de respondientes. Entre las principales desventajas está la incapacidad de conseguir información detallada y si el entrevistado no conoce al entrevistador se generará la falta de cooperación y el potencial rechazo a contestar preguntas. La muestra se obtiene del directorio telefónico, razón por la que pudiera no ser representativa de una población determinada, restándole validez y confiabilidad. La entrevista telefónica requiere que se realicen una serie de observaciones verbales como ¿ok? ¿puede continuar.? Las ventajas que tiene con respecto a la entrevista cara a cara son tres:
mientras que las desventajas son:
d) Cuestionario: Cuando la muestra a encuestar es bastante numerosa se recomienda utilizar el cuestionario en lugar de la entrevista. También requiere de la preparación cuidadosa y exhaustiva de un programa cuya estructura es muy similar a la de una cédula de entrevista. Una cédula de entrevista puede transformarse en un cuestionario y viceversa. El programa incluye al menos la siguiente información.
El tipo de ítems o preguntas que frecuentemente se utilizan en un programa son de alternativa fija o estructuradas y abiertas o no estructuradas. 1 Ítems Estructurados. Son reactivos de alternativa fija y ofrecen al respondiente la elección entre dos o más alternativas de respuesta. En este tipo de preguntas se debe evitar obtener como respuesta un simple SI o un NO porque no suministran ninguna información relevante. Tienen como ventajas la potencial uniformidad de medición y con ello mayor confiabilidad, además se codifican con facilidad. Como desventajas están la superficialidad porque pudieran no profundizar en las respuestas. 2 Ítems No Estructurados. Son reactivos de finalidad abierta muy útiles para obtener un marco referencial sobre las respuestas que suministran los respondientes. Dan la posibilidad al respondiente de profundizar en sus respuestas libremente y se pueden realizar estimaciones mas precisas sobre las opiniones de los respondientes. La Figura 3.3 muestra las etapas generales para la planeación y desarrollo de un estudio por encuesta. Especificando en cada una de las etapas las principales actividades a desarrollar. Para ampliar la información sobre la metodología de las encuestas ver Arias (1986) y (Kerlinger) 1983. 3.4 Investigación Experimental La investigación experimental en las ciencias sociales difiere notablemente de la investigación experimental en las ciencias naturales debido a las características de las unidades de análisis en el área social. Un experimento tiene como propósito evaluar o examinar los efectos que se manifiestan en la variable dependiente cuando se introduce la variable independiente, es decir, se trata de probar una relación causal. Montgomery (1993) define literalmente el experimento como “... una prueba o ensayo,” (p. 1) en la que es posible manipular deliberadamente una o más variables independientes para observar los cambios en la variable dependiente en una situación o contexto estrictamente controlado por el investigador. El desarrollo de un experimento tiene como requisito imprescindible utilizar un diseño apropiado para resolver el PON que se investiga. El diseño de investigación se puede entender como el desarrollo de un plan o estrategia que especifica las acciones y medios de control que se efectuarán para alcanzar los objetivos del experimento, responder a las preguntas de investigación y someter a contrastación las hipótesis.
Campbell y Stanley (1969) clasifican los diseños de investigación en experimentos verdaderos, preexperimentos y cuasiexperimentos. Para efectos de explicar los anteriores diseños se utilizará la simbología siguiente:
a) Diseños Experimentales Verdaderos: Este tipo de diseño se caracteriza por ejercer un estricto control sobre el experimento por medio del establecimiento tanto de grupos de comparación a fin de manipular la variable independiente como la equivalencia de los grupos por medio de la asignación aleatoria de las unidades de análisis. En los diseños experimentales es posible manipular la variable independientes y puede utilizar sólo posprueba o la modalidad de preprueba-posprueba en la medición de las variables estudiadas. La utilización de la posprueba tiene como propósito determinar la presencia o ausencia de efectos experimentales. Esquemáticamente los diseños experimentales tienen la siguiente estructura:
en los anteriores estructuras de diseños experimentales la asignación aleatoria (A) de las unidades de análisis sirve como medio de control de las diferencias entre los grupos. En lugar de utilizar A es posible asignar las unidades de análisis por pareamiento aleatorio (P) para lograr el mismo objetivo. Las ventajas y desventajas de los diseños experimentales verdaderos son: Ventajas
Desventajas
a3) Diseños de Solomon: Por medio de la mezcla de los dos anteriores tipos de diseños experimentales Solomon propone diseños con tres y cuatro grupos. Éstos son una extensión de los diseños experimentales de dos grupos. Es posible verificar los posibles efectos de la preprueba sobre la posprueba y controlar las fuentes de invalidación interna. Los diseños de Solomon tienen la siguiente estructura:
en estos diseños el segundo grupo control se convierte automáticamente en un segundo grupo experimental. El diseño de cuatro grupos de Solomon es difícil de aplicar, de controlar y de medir estadísticamente. No obstante lo anterior, permite realizar una doble experimentación y comparación de grupos. Otro tipo de diseños de investigación más avanzados son los llamados diseños factoriales que son considerados como una consecuencia del diseño de cuatro grupos de Solomon. R. A. Fisher desarrollo los diseños factoriales al igual que los métodos estadísticos para su análisis (Van Dalen y Meyer, 1986). Hay muchas investigaciones experimentales que pretenden analizar la influencia simultanea de dos o más variables independientes llamadas factores sobre la variable dependiente y la interacción entre ellas. Los diseños de investigación que se utilizan para este propósito se denominan diseños factoriales (Arnau Grass, 1980). Una definición muy completa de diseño factorial es la que ofrece McGuijan (1996). Para este autor “un diseño factorial completo es aquel en el que se utilizan todas las combinaciones posibles de los valores seleccionados de las variables independientes,” (p. 163). La anterior definición establece que los diseños factoriales se utilizan para manipular las variables independientes simultáneamente y permiten evaluar por separado los efectos de cada variable independiente al igual que la interacción entre ellas. Un diseño factorial puede utilizar dos o más variables independientes con cualquier cantidad de niveles o valores para determinar estadísticamente sus efectos (Rodríguez y Pérez, 1995). Por lo general los diseños factoriales se representan como diseños 2X2, 2X3X4, 2X4X8X5, etc. Cada dígito representa una variable independiente y su valor representa la cantidad de niveles o valores que posee cada variable independiente, así en un diseño factorial 2X2 existen dos variables independientes con dos niveles cada una de ellas. A mayor cantidad de variables independientes y niveles existe mayor dificultad para desarrollar y controlar el experimento. Para ilustrar un diseño factorial se utilizará un ejemplo relativamente simple sin aplicar un análisis estadístico, lo anterior es con el propósito de facilitar la comprensión del mismo. Considérese un diseño factorial 2X2 en el que se pretende analizar el aprendizaje alcanzado por un grupo de unidades de análisis clasificadas por sexo en hombres (H) y mujeres (M) que utilizan dos diferentes métodos de instrucción: el método tradicional (MT) y la instrucción programada (IP). La Figura 3.4 muestra la estructura de este diseño factorial. Cada posible combinación se presenta en una parcela o celda, las posibles combinaciones son (ver Figura 3.5):
el experimento consiste en medir el aprendizaje obtenido por los grupos con cada uno de los métodos de instrucción. Las preguntas de investigación son:
en la medición del aprendizaje o evaluación se obtuvieron los siguientes resultados expresados como promedio aritmético:
al comparar las puntuaciones medias marginales de los renglones se esta analizando la influencia del sexo de las unidades de análisis sobre el aprendizaje en ambos niveles, al obtener la media aritmética del renglón del nivel de hombres se tiene un promedio de 91.5 y en el nivel de mujeres el promedio es de 81. El promedio aritmético del nivel de hombres supera en 10.5 puntos al promedio del nivel de mujeres, razón por la que es posible atribuir relativamente un efecto a la variable sexo de las unidades de análisis sobre el aprendizaje. Al comparar las puntuaciones medias marginales de las columnas se esta analizando la influencia de los métodos de intrucción sobre el aprendizaje. Al obtener la media aritmética de la columna del MT se tiene un promedio de 83 y en la columna de IP el promedio es de 89.5 superando por 6.5 puntos al MT, esta diferencia hace posible atribuir relativamente que el método de IP es mejor que el MT. Para responder a la pregunta c), se procede a graficar los resultados (ver Figura 3.7).
En la Figura 3.7 se aprecia claramente que no existe interrelación (interacción) entre las variables independientes. En el anterior ejemplo, las conclusiones obtenidas no son determinantes debido a que es necesario un análisis de varianza. Los diseños factoriales tienen las ventajas de:
b) Diseños Pre-experimentales: En los diseños pre-experimentales se analiza una sola variable y prácticamente no existe ningún tipo de control. No existe la manipulación de la variable independiente ni se utiliza grupo control. En una investigación pre-experimental no existe la posibilidad de comparación de grupos. Este tipo de diseño consiste en administrar un tratamiento o estímulo en la modalidad de solo posprueba o en la de preprueba-posprueba. El diseño tiene la siguiente estructura:
como se puede apreciar en los anteriores esquemas, el diseño de tipo preexperimental tiene un grado de control mínimo en virtud de que se trabaja con un solo grupo y las unidades de análisis no son asignadas aleatoriamente al mismo. Adicionalmente existen muy pocas probabilidades de que el grupo sea representativo de los demás. c) Diseños Cuasiexperimentales: El término cuasi significa casi por lo que un diseño cuasiexperimental casi alcanza el nivel de experimental, el criterio que le falta para llegar a este nivel es que no existe ningún tipo de aleatorización, es decir, no hay manera de asegurar la equivalencia inicial de los grupos experimental y control. Se toman grupos que ya estan integrados por lo que las unidades de análisis no se asignan al azar ni por pareamiento aleatorio. La carencia de aleatorización implica la presencia de posibles problemas de validez tanto interna como externa. La validez interna se ve afectada por el fenómeno de selección, la regresión estadística y el proceso de maduración. La validez externa se ve afectada por la variable población, es decir, resulta difícil determinar a que población pertenecen los grupos. La estructura de los diseños cuasiexperimentales implica usar un diseño solo con posprueba o uno con preprueba-posprueba.
3.4.1 Control El término control tiene diversas acepciones pero en investigación experimental significa que si se observa en el experimento que una variable independiente influye sobre la variable dependiente, la modificación de esta última se debe a la manipulación de la variable independiente y no es producto de variables extrañas o factores ajenos al experimento. Entre los métodos para controlar las variables debidas a los sujetos o unidades de análisis estan los siguientes:
3.4.2 Problemas de Validez En la literatura sobre diseños de investigación experimental en las ciencias sociales existen dos criterios para evaluar los diseños experimentales (Campbell y Stanley, 1965): a) la validez interna y b) la validez externa. a) Validez Interna: La validez interna analiza internamente el experimento cuestionando las relaciones. Trata de responder a la pregunta ¿el tratamiento experimental es en realidad el causante de la modificación observada en la variable dependiente?. La validez interna requiere controlar adecuadamente las variables extrañas. Una variable extraña es todo aquel factor ajeno al experimento y que pudiera distorsionar o influir sobre los resultados. Lo anterior indica que el comportamiento observado en la variable dependiente pudiera ser producto de algún factor ajeno al experimento y no debido a las variables independientes. La presencia de variables extrañas en un experimento implica serios problemas de validez interna. Los principales problemas o variables extrañas se pueden agrupar en problemas concernientes al estudio (investigación), al procedimiento experimental, al tiempo, interacción de la selección con otras variables y, a la regresión estadística (Baker, 1997; Castro, 1982).
b) Validez Externa. La validez externa se refiere al problema de ¿qué tan generalizables o representativos son los resultados? El propósito es determinar si los resultados se pueden generalizar a otras poblaciones, grupos, situaciones experimentales, variables experimentales y de medición (D”Ary, Jacobs y Razavieh, 1982). 3.4 Investigación No Experimental La investigación no experimental es también conocida como investigación Ex Post Facto, término que proviene del latín y significa después de ocurridos los hechos. De acuerdo con Kerlinger (1983) la investigación Ex Post Facto es un tipo de “... investigación sistemática en la que el investigador no tiene control sobre las variables independientes porque ya ocurrieron los hechos o porque son intrínsecamente manipulables,” (p.269). En la investigación Ex Post Facto los cambios en la variable independiente ya ocurrieron y el investigador tiene que limitarse a la observación de situaciones ya existentes dada la incapacidad de influir sobre las variables y sus efectos (Hernández, Fernández y Baptista, 1991). D´Ary, Jacobs y Razavieh (1982) consideran que la variación de las variables se logra no por manipulación directa sino por medio de la selección de las unidades de análisis en las que la variable estudiada tiene presencia, por ejemplo, se puede analizar como influyo el movimiento del primero de enero de 1994 en Chiapas sobre la economía nacional, también se puede analizar la percepción de personas con síndrome de Down y personas que no lo tienen. En ambos casos el investigador no puede manipular directamente las variables independientes como ocurre en un estudio de corte experimental. Es muy importante destacar que en una investigación experimental la variable independiente se manipula y por eso se le llama variable activa mientras que en la investigación Ex Post Facto la variable independiente no es susceptibles de manipulación y por eso de le llama variable atributiva. Existen al menos tres aspectos en los que la investigación experimental es semejante a la investigación Ex Post Facto:
Con los resultados que arroja una investigación Ex Post Facto no es posible afirmar con seguridad una relación causal entre dos o más variables, como ocurre en la investigación experimental. Lo anterior debido a la posibilidad de que no se hayan encontrado otros factores que si están afectando la variable dependiente. Si esto ocurre entonces se tienen datos espurios o falsos, es decir, existen serias dudas acerca de su origen. La investigación experimental implica establecer mecanismos de control como condición del método experimental. No obstante lo anterior, cuando ha pasado un evento (hecho) ¿cómo puede ser controlado? Si los cambios en la variable independiente ya ocurrieron y están fuera de la capacidad de manipulación y control del investigador, por esta razón en la investigación Ex Post Facto se estudia de manera retrospectiva el fenómeno en cuestión. Lo anterior se puede observar en un estudio sobre las experiencias de desarrollo social de personas con síndrome de Down (variable provocada por la herencia genética y no por el investigador) en un ambiente familiar restrictivo. Ambas variables están fuera del control del investigador. Leedy (1993) define la investigación Ex Post Facto como un proceso inverso a la investigación experimental (ver Figura 3.8).
El investigador empieza con la observación de hechos que ya se han presentado y que se han manifestado en una serie de eventos. En el área de origen del fenómeno estudiado se observan los hechos. A partir de las observaciones se procede a diseñar tanto los objetivos como las hipótesis dando inicio a la investigación en sentido opuesto a una investigación experimental. 3.6 Construcción de Indices y Escalas 3.6.1 Indices Un índice puede ser conceptualizado como un instrumento de medición por medio del cual se asignan medidas a las unidades de análisis en función de la posesión de algún indicador social o económico (Briones, 1995). En la investigación social y económica los índices tienen diversas aplicaciones, por ejemplo al utilizarse para el análisis de variables económicas es posible llegar a descubrir relaciones importantes en las variables estudiadas (Webster, 1998). La medición de las variables se hace por medio de números índice expresados en términos de cantidad, precio o valor. De acuerdo con Kazmier (1998) “un número índice es un valor relativo, expresado como porcentaje o cociente, que mide un periodo dado contra un periodo base determinado,” (p. 300). Los números índice son un excelente medio para la toma de decisiones empresariales y para evaluar el efecto de programas de índole socioeconómica. Esta sección se limita a presentar los índices de precios simple y de precios agregado, para ampliar la información sobre el tema ver Kazmier, 1998; Webster, 1998; Levin y Rubin, 1996; Berenson y Levine, 1994 entre otros. a) Índice de Precios Simple. Se utiliza para medir la variación del precio de un bien o servicio en un tiempo que fluctúa entre el periodo base y el periodo actual o de referencia. El método para establecer un índice simple consiste en dividir el precio del bien en el periodo actual por su precio en el periodo base multiplicado por 100 el resultado. algebraicamente se expresa con la ecuación:
(Ec. 3.1) en donde: PI = Precio índice PR = Precio del periodo de referencia PB = Precio del periodo base Por ejemplo, para calcular el índice de precios simple de un libro cuyo precio en 1997 es de 60 pesos y en 1998 es de 98 pesos, considerando el año 1997 como el periodo base, se tendría: PI1997 = 60/60 X 100 = 100 PI1998 = 98/60 X 100 = 163.33 los anteriores resultados reflejan que el índice de precios del libro aumento de 100 a 163.33, por lo que es factible hacer la inferencia de que el precio del libro aumento un 63.33 % de un año a otro. Para calcular el aumento del precio del libro se procede a obtener la diferencia entre ambos números índice divido por el periodo base. La expresión algebraica es:
(Ec. 3.2) en donde: PIR = Precio índice del periodo de referencia PIB = Precio índice del periodo base. Al aplicar la ecuación 3.2 al anterior ejemplo se tiene: ((163.33 – 100) / 100) X 100 = 63.33 en este tipo de índices el índice de precios del año base tiene invariablemente un valor de 100. b) Índice de Precios Agregados. Se utiliza para calcular el índice de precios para varios bienes simultáneamente. Es aplicable en empresas que producen dos o más bienes o en organizaciones que registran el comportamiento del consumidor. El índice de precios agregados “mide los precios relativos de una cesta de productos y servicios consumidos por el público en general,” (Webster, 1998, p. 970). La expresión algebraica para calcular el índice de precios agregados es:
(Ec. 3.3) en donde: IPR = Indice de precios ΣPR = Sumatoria de los precios en el periodo actual ΣPB = Sumatoria de los precios en el periodo base al seguir con el anterior ejemplo y tomando como un segundo producto un cuaderno profesional cuyo precio en 1997 es de 48 pesos y en 1998 es de 74 pesos se procede a calcular primero el índice de precios simple para posteriormente calcular el índice de precios agregados. Los resultados del índice de precios simple son: IP1997 = 48/48 X 100 = 100 IP1998 = 74/48 X 100 = 154.17 los anteriores resultados reflejan que el precio del cuaderno aumento de un año a otro en un 54.17 %. El cálculo del índice de precios agregados para los dos anteriores productos (libro y cuaderno) es el siguiente:
los anteriores resultados sugieren que en 1998 se necesitan 317.54 pesos para comprar los productos que en 1997 se compraban con la cantidad de 100 pesos. 3.6.2 Construcción de Escalas Las escalas son instrumentos de medición o pruebas psicológicas que frecuentemente son utilizadas para la medición de actitudes. Summers (1982) define el término actitud como la “... suma total de inclinaciones y sentimientos, prejuicios o distorsiones, nociones preconcebidas, ideas, temores, amenazas y convicciones de un individuo acerca de cualquier asunto específico,” (p. 158). La actitud se expresa por medio de opiniones, por ejemplo una persona que expresa su opinión sobre la caída del muro de Berlín y la reciente desintegración de la Unión de Repúblicas Socialistas Soviéticas, refleja una actitud específica sobre los hechos referidos. En una escala de medición de actitudes no interesa propiamente la opinión o el conjunto de palabras que expresa la persona. Lo que en realidad es importante es la actitud de quién opina. La escala de medición de actitudes analizan los pensamientos y sentimientos de la persona hacia los hechos ya especificados. Las actitudes pueden medirse a través de diversos tipos de escalas entre las que destacan la escala de actitudes tipo Likert y el escalograma de Guttman. a) Escala de Likert. La escala de Likert mide actitudes o predisposiciones individuales en contextos sociales particulares. Se le conoce como escala sumada debido a que la puntuación de cada unidad de análisis se obtiene mediante la sumatoria de las respuestas obtenidas en cada ítem. La escala se construye en función de una serie de ítems que reflejan una actitud positiva o negativa acerca de un estímulo o referente. Cada ítem esta estructurado con cinco alternativas de respuesta: ( ) Totalmente de acuerdo ( ) De acuerdo ( ) Indiferente ( ) En desacuerdo ( ) Totalmente en desacuerdo la unidad de análisis que responde a la escala marcará su grado de aceptación o rechazo hacia la proposición expresada en el ítem. Los ítem por lo general tienen implícita una dirección positiva o negativa. Por ejemplo el ítem: los menonitas son un grupo étnico con excelentes valores hacia el trabajo ( ) Totalmente de acuerdo ( ) De acuerdo ( ) Indiferente ( ) En desacuerdo ( ) Totalmente en desacuerdo manifiesta una dirección positiva, en cambio si se expresará en la forma: los menonitas son un grupo étnico que tiene aversión al trabajo. ( ) Totalmente de acuerdo ( ) De acuerdo ( ) Indiferente ( ) En desacuerdo ( ) Totalmente en desacuerdo el ítem tiene una dirección negativa. La calificación o puntuación se asigna de acuerdo a la dirección del ítem, si tiene una dirección positiva la puntuación es: ( +2 ) Totalmente de acuerdo ( +1 ) De acuerdo ( 0 ) Indiferente ( -1 ) En desacuerdo ( -2 ) Totalmente en desacuerdo. En el caso de que el ítem posea una dirección negativa, la calificación se invierte. Los ítems se presentan en forma de enunciados cuyo grado de acuerdo o desacuerdo se solicita a la unidad de análisis. La cantidad de enunciados que integra una escala Likert varía de acuerdo a la naturaleza de la variable operacionalizada. Los pasos a seguir para la construcción de la escala son: 1 Definición de la variable a medir. 2 Operacionalización de la variable, es decir, se determina como se habrá de medir y se señalan los indicadores. 3 Diseño de una cantidad suficiente de ítems favorables y desfavorables a la variable que se pretende medir. Weiers (1986) sugiere elaborar alrededor de 50 ítems, balanceando la escala con igual cantidad de enunciados favorables y desfavorables. 4 Depuración de la escala por medio de un estudio piloto con el propósito de seleccionar los ítems que habrán de integrarse a la versión final de la escala. 5 Administración de la versión final de la escala a las unidades de análisis que integran la unidad muestral del estudio. 6 Asignación de una puntuación a cada ítem de acuerdo al procedimiento descrito con anterioridad. 7 Obtención de la puntuación total de cada unidad muestral, reflejando la actitud global hacia la variable medida. Es recomendable realizar un análisis de los ítems con el propósito de ser selectivos. Entre las técnicas de análisis se encuentran la correlación ítem-escala por medio del coeficiente de correlación de Pearson, el coeficiente gamma o el método de Edwars (Ver Briones, 1995). b) Escalograma de Guttman. Guttman desarrollo una técnica para la medición de actitudes en una dimensión única. Se le conoce como Escalograma de Guttman. Se caracteriza por medir la intensidad de la actitud a través de un conjunto de ítems. La escala es unidimensional siempre y cuando sea de carácter acumulativo, es decir, que los ítems que la integran posean un escalamiento perfecto. Lo anterior se refiere a que el conjunto de ítems estan encadenados entre sí de tal forma que si una unidad de análisis expresa estar de acuerdo con el primer ítem deberá estar de acuerdo con el resto de ítems que constituyen el escalograma. Los ítems se ordenan de mayor a menor intensidad. Por ejemplo, ante los siguientes enunciados tiene que buscarse que cumplan con el principio de escalamiento: 1 A una excelente preparación y capacidad profesional corresponden excelentes ingresos económicos. 2 Los sueldos y salarios que devengan los empleados en las organizaciones deben asignarse de acuerdo a la preparación y capacidad profesional. 3 Un empleado nuevo de una organización con un alto nivel de preparación y capacidad y con un eficiente desempeño laboral debe obtener un salario mas alto que un empleado de la misma organización con 10 o más años de experiencia pero con un bajo nivel de preparación y capacidad profesional, reflejado en un bajo desempeño laboral. Si los enunciados anteriores constituyen una escala unidimensional entonces deberán cumplir con el principio de escalamiento perfecto. La construcción del Escalograma de Guttman requiere de cumplir con las siguientes etapas: 1 Definir la variable de actitud a medir. 2 Operacionalizar la variable de actitud. 3 Desarrollar el conjunto de ítems con respecto al objeto de actitud o referente, especificando como alternativas de respuesta: ( ) De acuerdo ( ) En desacuerdo. 4 Desarrollar un estudio piloto con el propósito de verificar si la escala es unidimensional. Guttman sugiere administrar entre 10 y 12 ítems a un promedio de 100 personas para realizar la depuración de la escala con mayor confiabilidad. 5 Determinar si los ítems integran una escala acumulativa por medio del análisis de reproductividad de las respuestas, es decir, si los ítems cumplen con el principio de escalamiento. El análisis de reproductivilidad se determina mediante el coeficiente de reproductividad expresado como:
(Ec. 3.4) en donde: Cr = Coeficiente de reproductividad de acuerdo a Guttman un coeficiente de reproductividad adecuado debe tener un valor mínimo de 0.90 como criterio para aceptar que la escala es unidimensional. 6 Administrar el escalograma a la unidad muestral. 7 Asignar puntuaciones a cada ítem. El valor que se asigna a la alternativa de acuerdo es 1 y 0 a la alternativa en desacuerdo. Estas puntuaciones se utilizan como precedente para obtener el coeficiente de reproductividad, a la vez que se determinan los puntos de ruptura. Un punto de ruptura es un error en el escalamiento del escalograma, por ejemplo si se tienen los ítems A, B, C y D y el respondiente marca de acuerdo en A, en desacuerdo en B y de acuerdo en C y D existe un punto de ruptura en B, es decir no hay escalamiento perfecto. Para lo anterior se utiliza la Técnica Cornell (ver Briones, 1995; Hernández, Fernández y Baptista, 1991; Summers, 1992). 8 Determinar la actitud global de las unidades de análisis evaluadas con respecto al referente u objeto de actitud. 3.7 Introducción a la Teoría del Muestreo En las actividades de investigación científica y tecnológica es muy útil el empleo de muestras. El análisis de una muestra permite inferir conclusiones susceptibles de generalización a la población de estudio con cierto grado de certeza (Holguin y Hayashi, 1993). Al desarrollar un proyecto de investigación “el total de observaciones en las cuales se esta interesado, sea su número finito o infinito, constituye lo que se llama una población,” (Walpole y Myers, 1996, p. 203). La muestra es una pequeña parte de la población estudiada. La muestra debe caracterizarse por ser representativa de la población. De acuerdo con Briones (1995) “una muestra es representativa cuando reproduce las distribuciones y los valores de las diferentes características de la población..., con márgenes de error calculables,” (p. 83). Los anteriores conceptos reflejan que al analizar una muestra se esta aplicando la inferencia estadística con el propósito de “... conocer clases numerosas de objetos, personas o eventos a partir de otras relativamente pequeñas, compuestas por los mismos elementos,” (Glass y Stanley, 1994, p. 241). En términos generales la información que arroja el análisis de una muestra es mas exacta incluso que la que pudiera arrojar el estudio de la población completa. Una muestra puede ser de dos tipos: no probabilística y probabilística. En la muestra no probabilística la selección de las unidades de análisis dependen de las características, criterios personales, etc. del investigador por lo que no son muy confiables en una investigación con fines científicos o tecnológicos. Este tipo de muestra adolece de fundamentación probabilística, es decir, no se tiene la seguridad de que cada unidad muestral integre a la población total en el proceso de selección de la muestra. El muestreo no probabilístico comprende los procedimientos de muestreo intencional y accidental: a) Muestreo Intencional. El muestreo intencional es un procedimiento que permite seleccionar los casos característicos de la población limitando la muestra a estos casos. Se utiliza en situaciones en las que la población es muy variable y consecuentemente la muestra es muy pequeña. b) Muestreo Accidental: El muestreo accidental consiste en tomar casos hasta que se completa el número de unidades de análisis que indica el tamaño de muestra deseado. Los anteriores procedimientos de muestreo no son recomendables para una investigación científica. El muestreo probabilístico permite conocer la probabilidad que cada unidad de análisis tiene de ser integrada a la muestra mediante la selección al azar. Este tipo de muestreo comprende los procedimientos de muestreo simple o al azar, estratificado, sistemático y por conglomerados o racimos. a) Muestreo Simple: De acuerdo con Webster (1998) “una muestra aleatoria simple es la que resulta de aplicar un método por el cual todas las muestras posibles de un determinado tamaño tengan la misma probabilidad de ser elegidas,” (p. 324). Esta definición refleja que la probabilidad de selección de la unidad de análisis A es independiente de la probabilidad que tienen el resto de unidades de análisis que integran una población. Esto significa que tiene implícita la condición de equiprobabilidad (Glass y Stanley, 1994). Los pasos para obtener una muestra aleatoria simple son: 1 Definir la población de estudio. 2 Enumerar a todas las unidades de análisis que integran la población, asignándoles un número de identidad o identificación. 3 Determinar el tamaño de muestra óptimo para el estudio. 4 Seleccionar la muestra de manera sistemática utilizando una tabla de números aleatorios generada por medios computacionales para garantizar que se tiene un orden aleatorio. Por ejemplo, para obtener una muestra de alumnos del Instituto Tecnológico de Nuevo Casas Grandes a los que se les aplicará una encuesta. Lo primero que se hace es enumerar a todo el alumnado de la institución. Se obtiene una lista de los alumnos matriculados y se les asigna un número a cada uno de ellos en orden alfabético y ascendente. Suponiendo que el total de alumnos es de 700 se utilizan los números 000, 001, 002, 003,...,699. Se determina el tamaño de muestra, suponiendo que en este caso es de tamaño 75. Enseguida se utiliza la tabla de números aleatorios formando números de tres dígitos aceptando como unidad de análisis muestral a todos aquellos que estén comprendidos entre el 000 y el 699. b) Muestreo Estratificado. Este procedimiento de muestreo determina los estratos que conforman una población de estudio para seleccionar y extraer de ellos la muestra. Se entiende por estrato todo subgrupo de unidades de análisis que difieren en las características que se van a analizar en una investigación. Por ejemplo, si se va a realizar un estudio correlacional entre el tipo de perfil profesional y los ingresos económicos de los egresados del Instituto Tecnológico de Cd. Cuauhtémoc que laboran en las empresas instaladas en la Región Noroeste del Estado de Chihuahua y cuya edad fluctúa entre 25 y 45 años se procede a dividir la población de estudio en cinco estratos. Cada estrato representa una de las cinco carreras que ofrece esta institución educativa (contaduría, administración, informática, ingeniería industrial e ingeniería en sistemas computacionales). Como se puede deducir del anterior ejemplo, este procedimiento integra unidades de análisis a la muestra provenientes de todos los estratos que conforman la población. La base de la estratificación adopta diversos criterios como edad, sexo, ocupación, etc. Una modalidad muy precisa en este tipo de muestreo es el procedimiento de muestreo estratificado proporcional. Procedimiento de muestreo que permite seleccionar a las unidades de análisis que integrarán la muestra en proporción exacta al tamaño que tiene el estrato en la población, es decir, “el estrato se encuentra representado en la muestra en proporción exacta a su frecuencia en la población total,” (D´Ary, Jacobs y Razavieh, 1982, p. 138). Los pasos a seguir para seleccionar una muestra proporcionalmente estratificada son: 1) Definir la población de estudio. 2) Determinar el tamaño de muestra requerido. 3) Establecer los estratos o subgrupos. 4) Determinar la fracción total de muestreo por estrato dividiendo el tamaño del estrato entre el tamaño de la población de estudio. 5) Multiplicar la fracción total de muestreo por estrato por el tamaño de la muestra para obtener la cantidad de unidades de análisis de cada estrato que se integrarán a la unidad muestral. 6) Selección y extracción de la muestra aplicando el procedimiento de muestreo aleatorio simple. Al aplicar este procedimiento de muestreo al ejemplo: Si se tiene que seleccionar una muestra de 500 personas, de una comunidad de 5000 habitantes repartidos en cinco colonias, en donde el tamaño de cada estrato es: colonias A = 1000, B = 1500, C = 500, D = 1250 y E = 750, la muestra es:
c) Muestreo Sistemático. Una muestra sistemática se obtiene determinando cada hésima unidad o késimos casos. Un késimo caso representa el intervalo de selección de unidades de análisis que serán integradas a la muestra, se obtiene mediante la expresión:
(Ec 3.5) por ejemplo si se va a encuestar a una muestra de tamaño 50 de una población de 500, el intervalo de selección es de tamaño 10. Este intervalo de selección indica que se habrá de formar cada décimo caso de la población para integrarlo a la muestra. El primer caso se selecciona arbitrariamente o al azar. Suponiendo que en este ejemplo el primer caso seleccionado sea el número 13, el segundo será el 23 y así sucesivamente hasta completar el tamaño de muestra deseado. d) Muestreo por Racimos. Se utiliza cuando el investigador esta limitado por factores de tiempo, distancia, fuentes de financiamiento, entre otros. Las unidades de análisis se encuentran encapsuladas o encerradas en determinados lugares físicos o geográficos que se denominan racimos. En este tipo de muestreo es imprescindible diferenciar entre unidad de análisis entendida como quiénes va a ser medidos y unidad muestral que se refiere al racimo a través del cual se logra el acceso a la unidad de análisis. Por ejemplo si se va a realizar una encuesta sobre las condiciones salariales en las empresas industriales, la unidad muestral son las industrias y las unidades de análisis estan representadas por los obreros que laboran en ellas. 3.7.1 Error de Muestreo La muestra debe seleccionarse a partir de la población objetivo o de estudio procurando que sea representativa de la población. Se controlará que las características de la muestra sean una aproximación de las características de la población con un margen de error tolerable y conocido. Autores como Hopkins, K., Hopkins, B. Y Glass, S. (1997) entre otros hacen énfasis en este criterio porque en investigación es mas importante la representatividad de la muestra que la preocupación por el tamaño de la misma. La estadística inferencial es un medio para la toma de decisiones con base en información limitada. Se utiliza la información proveniente de la observación de las muestras y lo que se conoce acerca del error de muestreo para establecer conclusiones generalizables a la población. Un instrumento básico de esta disciplina lo constituye la hipótesis de nulidad o explicación que propone una relación casual, sosteniendo que no hay ninguna relación entre las variables y que cualquier relación que se observe es una función de la casualidad. Un investigador debe aceptar o rechazar la hipótesis de nulidad a un determinado nivel de significancia estadística (α= 0.01, α=0.05). Toda decisión que el investigador tome pudiera ser aceptada o errónea, pudiendo cometer errores de tipo I y de tipo II. El error de tipo I consiste en rechazar una hipótesis de nulidad verdadera, cuando la hipótesis nula es en realidad verdadera. El error de tipo II consiste en aceptar una hipótesis de nulidad que es en realidad falsa. RESUMEN DEL CAPITULO La investigación puede ser clasificada como transeccional, longitudinal o de tendencia atendiendo al criterio de tiempo. En términos de los objetivos que persigue una investigación puede ser catalogada como exploratoria, descriptiva, correlacional o experimental. Los métodos de investigación son muy variados así por ejemplo la técnica de investigación documental es útil para describir, explicar, comparar, etc. determinados temas con base en la lectura y crítica de materiales y documentos diversos mientras que la investigación por encuesta permite analizar poblaciones con base en el estudio de una muestra representativa. El estudio de muestras permite obtener resultados incluso mas exactos que si se sometiera a estudio a la población total, teniendo como ventajas la precisión, la rapidez y la economía. La validez y confiabilidad de un estudio por encuesta depende de la representatividad de la muestra. Por otro lado los índices y escalas son instrumentos de medición muy importantes para la toma de decisiones en un entorno empresarial. ACTIVIDADES DE INVESTIGACION
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Título: Introducción a la
Metodología de la Investigación |
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||