domingo, 15 de septiembre de 2013


¿Cómo se la distribución del gasto público en los hogares más pobres?

Los hogares pobres tienden a demandar gasto público hacia una educación básica.

¿Hacia dónde hay mayor distribución del gasto público?

La mayor distribución del gasto público seda en zonas urbanas.

¿Cuáles son los enfoques de la planeación educativa?

Son 4 Enfoques:

1.       Estimación de demanda social

2.       Planeación de recursos humanos

3.       Análisis de tasa internas de retorno

4.       Análisis de costo beneficio o costo efectividad.

sábado, 1 de junio de 2013

Socióloga cualitativa

La codificación
La primera operación a realizar en el marco de la elaboración de datos, inmediatamente después de efectuado el relevamiento. Según Maurice Duverger, tal operación consiste en asignar un número a cada categoría de respuestas, el cual determinara el lugar de la correspondiente perforación sobre la ficha que sirve de base a los escrutinios mecanográficos.
El código es el conjunto de símbolos correspondientes a cada una de las categorías en que son divididas las respuestas obtenidas. 
Establecimiento de una nomenclatura ésta es la lista de modalidades del carácter en cuestión que se pretende distinguir.
Antes de entrar al tema de la codificación del código parece pertinente dar una formulación un poco más precisa a cinco de los conceptos que se han manejado hasta ahora: clasificación, código, categorías, categorización y codificación.
La codificación es una operación que presenta dificultades extremadamente variables, según la naturaleza de las preguntas hechas, la calidad de las respuestas y la complejidad del código utilizado.
Instrucciones para la codificación de preguntas abiertas
Las preguntas abiertas se codifican una vez que conocemos todas las respuestas de los sujetos a las cuales se les aplicaron o al menos las principales tendencias de respuestas en una muestra de los cuestionarios aplicados.
 El procedimiento consiste en encontrar y darles nombre a los patrones generales de respuesta (respuestas similares o comunes), listar estos patrones y después asignar un valor numérico o símbolo a cada patrón. Así, un patrón constituirá una categoría de respuesta. Para cerrar las preguntas abiertas, se sugiere el siguiente procedimiento, basado parcialmente en Rojas (1981, pp.l 50-151):
 1. Seleccionar determinado número de cuestionarios mediante un método adecua­do de muestreo, asegurando la representatividad de los sujetos investigados.
2. Observar la frecuencia con que aparece cada respuesta a la
            pregunta.
3. Elegir las respuestas que se presentan con mayor frecuencia
            (patrones generales de respuesta).
4. Clasificar las respuestas elegidas en temas, aspectos o rubros, de acuerdo con un criterio lógico, cuidando que sean mutuamente excluyentes.
5. Darle un nombre o título a cada tema, aspecto o rubro (patrón
            general de respuesta).
6. Asignarle el código a cada patrón general de respuesta.
La utilización de de símbolos numéricos, el elenco de símbolos puede ser aun mayor, pero los ejemplos mencionados al parecer alcanzan para mostrar algún aspecto nuevo referido a los símbolos en la codificación.
Escalas para la medición de actitudes
Las actitudes están relacionadas con el comportamiento que mantenemos en torno a los objetos a que hacen referencias. Las actitudes tiene diversas propiedades, entre las que destacan: dirección (positiva o negativa) e intensidad (alta o baja), estas propiedades forman parte de la medición. 
Los métodos más conocidos para medir por escalas las variables que constituyen las actitudes son: el método de escalamiento Likert. 
Método de Escalamiento Likert
Este método fue desarrollado por Rensis Likert a principio de los años treinta; sin embargo, se trata de un enfoque vigente y bastante popularizado. La escala de Likert mide actitudes o predisposiciones individuales en contextos sociales particulares. Se le conoce como escala sumada debido a que la puntuación de cada unidad de análisis se obtiene mediante la sumatoria de las respuestas obtenidas en cada ítem. 
La escala se construye en función de una serie de ítems que reflejan una actitud positiva o negativa acerca de un estímulo o referente. Cada ítem está estructurado con cinco alternativas de respuesta: 
( ) Totalmente de acuerdo 
( ) De acuerdo 
( ) Indiferente 
( ) En desacuerdo 
( ) Totalmente en desacuerdo 
La unidad de análisis que responde a la escala marcará su grado de aceptación o rechazo hacia la proposición expresada en el ítem. Los ítems por lo general tienen implícita una dirección positiva o negativa. Por ejemplo el ítem: 
Los menonitas son un grupo étnico con excelentes valores hacia el trabajo 
( ) Totalmente de acuerdo 
( ) De acuerdo 
( ) Indiferente 
( ) En desacuerdo 
( ) Totalmente en desacuerdo 
Manifiesta una dirección positiva, en cambio si se expresará en la forma:
Los menonitas son un grupo étnico que tiene aversión al trabajo. 
( ) Totalmente de acuerdo 
( ) De acuerdo 
( ) Indiferente 
( ) En desacuerdo 
( ) Totalmente en desacuerdo 
El ítem tiene una dirección negativa. La calificación o puntuación se asigna de acuerdo a la dirección del ítem, si tiene una dirección positiva la puntuación es: 
(+2) Totalmente de acuerdo 
(+1) De acuerdo 
(0 ) Indiferente 
(-1) En desacuerdo 
(-2) Totalmente en desacuerdo. 
En el caso de que el ítem posea una dirección negativa, la calificación se invierte. Los ítems se presentan en forma de enunciados cuyo grado de acuerdo o desacuerdo se solicita a la unidad de análisis. La cantidad de enunciados que integra una escala Likert varía de acuerdo a la naturaleza de la variable operacionalizada. Los pasos a seguir para la construcción de la escala son: 
1. Definición de la variable a medir. 
2. Operacionalización de la variable, es decir, se determina como se habrá de medir y se señalan los indicadores. 
3. Diseño de una cantidad suficiente de ítems favorables y desfavorables a la variable que se pretende medir. Weiers (1986) sugiere elaborar alrededor de 50 ítems, balanceando la escala con igual cantidad de enunciados favorables y desfavorables. 
4. Depuración de la escala por medio de un estudio piloto con el propósito de seleccionar los ítems que habrán de integrarse a la versión final de la escala. 
5. Administración de la versión final de la escala a las unidades de análisis que integran la unidad muestral del estudio. 
6. Asignación de una puntuación a cada ítem de acuerdo al procedimiento descrito con anterioridad. 
7. Obtención de la puntuación total de cada unidad muestral, reflejando la actitud global hacia la variable medida. 
Es recomendable realizar un análisis de los ítems con el propósito de ser selectivos. Entre las técnicas de análisis se encuentran la correlación ítem-escala por medio del coeficiente de correlación de Pearson.
Construcción de la escala tipo Thurstone
Esta consiste, en síntesis, en pensar un grupo elevado de preguntas o proposiciones en relación a la actitud que se pretende medir, favorables, adversas y neutrales en todos sus grados. Estas proposiciones se someten a un grupo que hace de jueces y se les pide que señalen la valoración que a su juicio objetivo, tiene el ítem o proposición respecto a la actitud en cuestión.
La valoración se debe hacer según una escala continua de 1 a 11 puntos donde 1 es el máximo de acuerdo y el 11 el máximo desacuerdo con la proposición. Después de dar valor a los ítems de este modo, se halla para cada uno la medida y la desviación típica de las valoraciones que han dado los jueces. La medida constituye la ponderación o el valor escalar que se da al ítem. En cuanto a la desviación típica, si los ítems en ésta sobrepasan por ejemplo el valor de dos se elimina.
Los ítems eliminados son, aquellos en los que las valoraciones dadas por los jueces son dispersas. Suelen quedar treinta proposiciones. Se deben distribuir a lo largo de la escala de modo uniforme y cubriendo todos sus valores. 
Aplicando el análisis factorial sobre las puntuaciones obtenidas en las pruebas de inteligencia de un gran número de niños, L.L. Thurstone (1938) identificó siete factores relativamente diferentes, a los que llamó habilidades primarias:
- La fluidez verbal (habilidad para recordar palabras rápidamente)
- La comprensión verbal (habilidad para definir palabras)
- La aptitud espacial (habilidad para reconocer una figura cuya posición en el espacio había cambiado)
- La rapidez perceptiva (habilidad para detectar semejanzas y diferencias entre distintos dibujos)
- El razonamiento inductivo (pensamiento lógico)
- La aptitud numérica
- La memoria
Sus aportes ayudaron a comprender las diferencias intraindividuales observadas en el desempeño frente a pruebas de inteligencia general, permitiendo la construcción y mejora de tests de inteligencia, de personalidad e intereses, entre otros aspectos psicológicos.
La escala guttman
 La escala busca analizar si los items de una escala son reproducibles, escalables. Para Guttman, hay reproducibilidad si, a partir del puntaje total de cada persona, podemos reproducir su puntaje en cada ítem; y hay escalabilidad si los items tienen diferente intensidad, representan diferentes grados de actitud. Ambas características están relacionadas y suponen que los items son unidimensionales, que miden una sola dimensión. La escala con esos atributos es llamada por Guttman una escala propiamente tal, una escala acumulativa. Al contrario de la escala de Likert (que es una escala sumatoria), las personas con igual puntaje en una escala acumulativa están de acuerdo en los mismos items. En la escala Likert, pueden tener igual puntaje personas que no coinciden en ningún ítem. La reproducibilidad, la escalabilidad, la unidimensionalidad y la cumulatividad están relacionadas: una de ellas implica todas las demás. En una escala Guttman, si una persona tiene mayor puntaje que otra, está de acuerdo con todos los items con que la otra está de acuerdo, y de acuerdo con uno o más items con la que otra no está de acuerdo, y podemos deducir cuáles son esos items. El puntaje total permite reproducir los puntajes para cada ítem, y saber con cuáles items está de acuerdo una persona y con cuáles en desacuerdo. La escala Likert está diseñada para clasificar a personas de acuerdo a su actitud. La escala Guttman es un procedimiento para analizar una escala, para ver si los items forman una escala acumulativa; si no es así, deben descartarse items hasta lograr una escalabilidad que la haga aceptable para clasificar personas.
La construcción de la escala empieza con no muchos items y mantiene los que sean escalables. Guttman solía usar escalas de cuatro a seis items, y no se recomienda sobrepasar diez o doce.
Un ejemplo simple de escalabilidad referido a ‘estado físico’ se puede mostrar con los items siguientes: (A) ¿Puede trotar cinco km.? (B) ¿Puede trotar un km.? (C) ¿Puede trotar una cuadra? Cada uno corrresponde a un nivel en un continuo, a un grado diferente de resistencia física. El ítem C es de menor intensidad que el B, y ambos de menor intensidad que el A. Sabemos que quien tiene un punto ha contestado ‘sí’ al ítem C, el menos intenso. Quien tiene dos puntos ha contestado ‘sí’ a los items C y B. Si una persona tiene dos puntos y otra tiene un punto, sabemos que ambos contestaron ‘sí’ al C, y que al ítem B la primera persona contestó ‘sí’ y la otra contestó ‘no’. 
La siguiente tabla muestra una situación de perfecta unidimensionalidad, un padrón ideal. Hay cuatro items y cinco personas. El valor 1 indica que la persona contestó ‘sí’; el valor 0, que contestó ‘no’. El ítem 1 es el de menor intensidad, que va aumentando hasta el ítem 4, el más intenso. Cuando una persona sólo contesta ‘no’ a un ítem, se presume que es al más intenso; en este caso, al ítem 4. 

Personas A B C D E 
Item 1 1 1 1 1 0 
Item 2 1 1 1 0 0 
Item 3 1 1 0 0 0 
Item 4 1 0 0 0 0 
Puntaje total 4 3 2 1 0 
Se puede ver en las tablas de padrones ideales que siempre las celdas con unos (1) están arriba de las celdas con ceros (0). En esta tabla, con los items de izquierda a derecha de acuerdo a su grado de aceptación y las personas de mayor a menor puntaje, aparece un triángulo de unos y otro de ceros. Se puede ver una “escala con peldaños de ceros”. El análisis de escalograma considera ‘errores’ las diferencias entre las respuestas observadas de un conjunto de personas y el padrón ideal. Los errores se pueden deber a que hay items que tienen multidimensionalidad (miden más de un atributo) o que son equívocos (distintas personas los entienden diferentemente). El análisis de escalograma determina el número de errores y si esa cantidad permite aceptar que los items son unidimensionales. 
El diferencial semántico o escala de osgood
a) antecedentes teóricos
 El método es descripto por los autores como un método para medir el significado que tiene un objeto para un individuo.
Osgood supone que existe un espacio semántico de dimensionalidad desconocida y de naturaleza geométrica. El espacio está constituido de escalas semanticas. Cada escala consiste de un par de adjetivos que son bipolares. se supone que estas escalas forman una función lineal que pasa a traves del origen. para estaren condiciones de definir el espacio adecuadamente, es necesario usar una gran cantidad de escalas surge son una muestra representativa extraída del universo de escalas. Para diferenciar el significado de un objeto, el individuo hace una elección entre las alternativas dadas. La función de cada elección es localizar cada objeto en el espacio semántico. La valides de la localización en este punto en el espacio depende del número y representatividad de las escalas.
De este modo, la diferencia semántica significa la estabilización sucesiva de un objeto hasta un punto en el espacio multidimensional semántico, a través del puntaje de un número de alternativas semánticas dadas presentadas en forma de escalas. Una diferencia de significado entre dos objetos es simplemente una función de las diferencias de su ubicación en el mismo espacio, es decir, una función de la distancia multidimensional entre dos puntos.
  b)  dimensiones en el espacio semántico
 Osgood dio gran importancia al muestreo. El diferencial semántico está influido por tres fuentes de variación: el individuo, las escalas y los objetos.
Osgood llego a la conclusión de que la estructura del factor no dependía de la elección de escalas. El seguir 3 factores de hecho explico la mayor parte de la varianza total, mientras otras dimensiones solo explicaban una pequeña parte de ellas.
 Dimensiones
 1)  La evaluación que hace el individuo del objeto o concepto que se está Clasificando. Ejemplo escalas bipolares: regular – irregular; limpio – sucio bueno – malo;  valioso – despresiable.
2)  La percepción del individuo de la potencia o poder del objeto o concepto. Escalas: grande – chico; fuerte – devil; pesado – liviano.
3)  La percepción del individuo de la actividad del objeto o concepto. Escalas: activo – pasivo; rápido – lento;  frio – caliente.
 c) construcción
 El método para el diferencial semántico debe ser visto como un método par reunir cierto tipo de información (un método que pude ser generalizado), el cual tiene que constituirse por las demandas que presenta cierto problema de investigación.
Selección del objeto (concepto): “objeto”  se usa para determinar que significa el “estimulo”  que da” reacción” (respuesta) en el individuo a través de su indicación en las escalas de adjetivos.
El objeto puede ser verbal; puede consistir de solo una palabra o de varias palabras. Objetos no – verbales pueden ser diferenciados (cuadros u otros estímulos estéticos).
El investigador deberá pensar en elegir objetos que se supone daran:
1) Diferencias individuales (para poder estudiar la variación en el material)
2) Que tengan un solo significado (de otra manera hay riesgo de vacilación en la  elección).
3) Se supone que todos los individuos lo conozcan bien (de otro modo habrá regresión al medio de la escala).
 d) selección de escalas
 Al seleccionar las escalas se debe estar seguro de tener los tres factores: evaluación potencia y actividad representada. Para cada factor uno puede seleccionar cierta cantidad de  escalas correlacionadas y a través de estas obtener el promedio de las escalas. Esto aumentara la representatividad y la confiabilidad. Los promedios son llamados factor scores. El criterio más importante para la selección de escalas así es su patrón factorial (generalmente se seleccionan tres escalas para cada factor. las escalas elegidas cargadas en ese factor son bajas en los otros).
Otro criterio es la relevancia de las escalas al objeto. Las escalas con composición factorial desconocida pueden ser usadas si se suponen ser muy relevantes para la investigación. En este caso uno puede incluir escalas con composición factorial conocida y usarlas como escalas de referencia y estudiar como las escalas “desconocidas” covarianza con las escalas de referencia.
  e) El test de osgood y la medicion de actitudes
 Tal como se ha hecho notar el test de osgood no es una escala de actitudes en el sentido corriente, sino que las investigaciones han demostrado que los valores de escala pueden ser usados para la medición de actitudes. La actitud general se mide pero no el contenido de la actitud en el significado denotativo.
Osgood piensa que con la ayuda de los valores de escala es posible formar una escala universal que podria ser usada para medir la actitud hacia cualquier objeto.
La ventaja con tal escala universal seria: 1) Económica (tiempo, dinero, trabajo).
2) Disponible y así hacer la medición de actitudes que no han sido previstas.
3) Posibilidad para comparar entre diferentes investigaciones de actitud y actitud hacia diferentes objetos.
 El procedimiento consiste en señalar con una x en la escala el lugar en el cual usted ubicaría su opinión acerca del texto.
Por ejemplo: la palabra fanático podría ser evaluada en las siguientes escalas:
 Flexible         —;    —;    —;     —;     —;     —;      —;    rigido.
 Negativo       —;    —;    —;     —;     —;     —;      —;    positivo.  
Delicado       —;     —;    —;     —;     —;     —;     —;    rudo.
Si considera que indica rigidez pero en menor grado, marcaria en:
 Flexible         —;    —;    —;     —;     —;      x      —;    rigido.
Análisis de datos: el concepto de propiedad espacio y la utilización de razones, tasa, proporciones y porcentajes.
Una vez recogidos los datos pasamos a su preparación para iniciar el estudio, para poder lograr el análisis estadístico es necesario ordenar los datos y clasificarlos, lo primero que hacemos es revisar los instrumentos de recolección de información aplicados, sobre todos si son cuestionarios llenados por el informante ya que en una entrevista el entrevistador es el que registra las respuestas.
Algunos autores proponen que cuando quedan cuestionarios con preguntas sin contestar las llenemos con la respuesta que la mayoría colocó, sin embargo esto se podría considerar poco ético, pues no es la respuesta del encuestado, en ese caso la sugerencia es eliminar ese cuestionario de la muestra.
Terminado este proceso pasamos al agrupamiento.
En el caso de las entrevistas y cuestionarios con preguntas abiertas debemos crear categorías de acuerdo con los puntos expresados por los entrevistados de tal forma que ninguna opinión o planteamiento se queden sin categoría, pero también de forma que ninguna opinión pueda incluirse en dos categorías, es decir, deben ser mutuamente excluyentes. Una vez bien estructuradas las categorías contamos la frecuencia de aparición de cada categoría en las respuestas dadas.
En el caso de ser un cuestionario de preguntas cerradas se contabiliza la frecuencia de aparición de cada respuesta para luego elaborar una tabla con la distribución de frecuencias, tema que ampliaremos más adelante.
Razones Proporciones y Porcentajes
Una de las funciones de la estadística es resumir todos los datos de un conjunto para resaltar sus características más importantes. Una de las formas de realizar esta actividad es relacionando los datos, ya sea entre ellos mismos o con datos similares, es decir, convertir los valores absolutos en valores relativos, ya veremos por qué.
Razones
La razón (R) es el valor que indica la relación cuantitativa existente entre dos cantidades.
Proporción
La proporción es una razón, pero su diferencia con las razones anteriores, es que el denominador del cociente es el número total de unidades enunciadas.
Porcentajes
Las proporciones vienen expresadas en valores decimales, esto no es ningún inconveniente, pero cuando se quiere presentar al público los datos utilizar decimales es confuso, por ello se acostumbra a multiplicar las proporciones por 100, para convertir los valores decimales en enteros, es decir, para convertirlos en porcentajes.
Porcentajes de Cambio
Son los que muestran la diferencia entre dos porcentajes; estos puedenser en aumento o en descenso.
Distribución de Frecuencias.
En muchas ocasiones habrás observados tablas como esta:
Edades (en años) Frecuencia
1 a 5 26
6-10 44
11-15 32
Esta tabla se denomina Distribución de Frecuencias. La estadística descriptiva utiliza la distribución de frecuencias para organizar y presentar los datos. Lo deseable es que logremos determinar de forma correcta las distancias de los intervalos que usaremos para agrupar nuestros datos.
A parte de la distribución de frecuencias los datos pueden también pueden ser presentados en gráficos contentivos de los mismos datos que expresamos en la distribución de frecuencias. Seguro te preguntarás ¿Y si tienen los mismos datos para que hacerlos? La respuesta es que el gráfico permite apreciar de forma más rápida los datos obtenidos, ya lo comprobaremos más adelante.
Existen una gran variedad de gráficos, primero conoceremos los dos más empleados en administración, también mencionaremos otros tipos de gráficos de mucha utilidad, sin embargo te invito a ampliar sobre este tema a través de un arqueo bibliográfico.
Histograma:
Es uno de los gráficos utilizados mayormente empleado para representar una distribución de frecuencias
Polígono de frecuencia
Un polígono de frecuencia es perecido al histograma. Consiste en segmentos de línea que se conectan por los puntos formados por la intersección del punto medio de la clase y de la frecuencia de clase. La elaboración de un polígono de frecuencias se hace colocando los puntos medios de cada clase en el eje x y la escala en el eje y, es decir, las frecuentas de clase. Recordemos que el punto medio representa los valores de cada clase.
El histograma y el polígono de frecuencia nos permiten tener una visión de las principales características de un conjunto de datos, a pesar de tener ambos el mismo propósito, el histograma tiene la ventaja de representar cada frecuencia como un rectángulo que además incluye ambos valores del intervalo. Por su parte el polígono de frecuencia tiene una ventaja sobre el histograma, permite comparar dos distribuciones de frecuencia a la vez, y si por ejemplo queremos hacer un gráfico con los gastos de tres años con una misma distribución de frecuencias, fácilmente lo podemos hacer.
Otras presentaciones gráficas de datos
Gráfica por medio de línea.
Las gráficas por medio de línea son muy útiles en la administración porque podemos mostrar el cambio de una variable en el tiempo, es decir, si queremos ver la cantidad de unidades vendidas de un producto que fabricamos en nuestra organización, este gráfico es la mejor opción. Para su elaboración colocamos la variable, que continuando con nuestro ejemplo de
Conviasa, sería cantidad de vuelos diarios sobre el eje y y el tiempo sobre el eje x.
Gráfico de Barras.
Es un gráfico muy versátil, en el se puede graficar cualquier tipo de variable y en cualquier nivel de medición. Las barras pueden ser verticales u horizontales, y tampoco hay mayor inconveniente en la distribución de los datos a través de los ejes del plano cartesiano.
Diagrama Circular:

El diagrama circular, muy reconocido por gráfico de torta es especial para representar porcentajes. El diagrama circular convierte los 360 grados del círculo en el 100% de la variable que estamos representando. Este es un gráfico muy de muy fácil lectura, pues las líneas que cortan la circunferencia permiten, rápidamente, ver que clase de la variable tiene el mayor porcentaje.

viernes, 24 de mayo de 2013

métodos cualitativos en la educación

SOCIOLOGÍA CUALITATIVA
MÉTODO PARA LE RECONSTRUCCIÓN DE LA REALIDAD
Documentación explicativa
Analizar que han pensado y expresado sobre el problema que nos interesan otros autores, como han afrontado y formulado el problema, como lo han resuelto,  a que conclusiones han llegado, como han definido sus conceptos, como han determinado sus observaciones.
Documentación descriptiva
Literatura actual; documentos históricos: revisión de informaciones de prensa, radio y tv; archivos públicos, documentos oficiales, datos estadísticos.
Estudio de la situación: observación participante, entrevistas cualitativas con personas claves
Hipótesis A y F son variables; indica una relación y su dirección.
Cuestionario
Se trata de construir un instrumento que sirva para medir los conceptos que hemos seleccionado. Los métodos de recolección más utilizados en el tipo de investigación que estamos desarrollando son la observación, la entrevista y el cuestionario.
Observación: como método de recolección de datos se aplica preferentemente en aquellas situaciones en las que se trata de detectar aspectos conductuales, como ocurre en situaciones externas y observables.
Las investigaciones tipo survey, la entrevista es una técnica de recolección de datos que implica una pauta de interacción verbal, inmediata y personal, entre un entrevistador y un respondiente.
El cuestionario está compuesto de preguntas, espacio para registrar las respuestas y espacio para registrar la entrevista como unidad.
Cuando el investigador tiene un equipo de entrevistadores capaces y bien entrenados, el cuestionario de la investigación final se presenta junto con las instrucciones para los entrevistadores. Llevara algún tiempo al entrevistador manejar todos los formularios y el cuestionario.
La recolección de datos
El trabajo en el campo debe planearse y llevarse a cabo con precisión y seguridad. Los entrevistadores están precisamente para un cierto propósito.
Codificación
 Es el traslado de categorías de respuestas a un lenguaje simplificado con el objetivo de efectuar el proceso de análisis dentro del espacio adecuado.
Análisis
A través de la información obtenida de los datos, el investigador continua su labor haciendo un proyecto de tabulaciones cruzadas, incluyendo correlaciones, test de significación estadísticas y otros procedimientos analíticos que desee aplicar y que se corresponden con su sistema de hipótesis.
Presentación
La presentación final de los hallazgos deberá ser efectuada de tal manera que muestre sus resultados en forma sistemática y compacta.
El proceso de investigación está constituido por una serie de partes íntimamente relacionadas. Del conocimiento de tal interconexión y de su manejo correcto a lo largo de la dinámica del proceso, dependerá el resultado sustantivo de la investigación misma.
La teoría sociológica es el conjunto de proposiciones y definiciones estriadas de la realidad social y que explican los fenómenos sociales concretos. El modela conceptual es construido a partir de términos generales, definiciones y supuestos de la teoría o de una porción de ella.
El objetivo de la investigación señala los elementos en el modelo que van a ser investigados.
El diseño de la investigación se refiere al conjunto particular de métodos seleccionados por el investigador tanto para la búsqueda de nuevos hechos, como para la determinación de sus conexiones.
La investigación científica tiene como sus objetivos teóricos más generales, dar respuestas inteligentes y validas a preguntas específicas o problemas de investigación.
La bibliografía especializada acostumbra diferenciar los estudios o diseños de investigación según el tipo de preguntas que el investigador plantea en estudios exploratorios, descriptivos y explicativos.
Una definición real, en un sentido más estricto, es un tipo particular de proposición: una proposición universal afirmativa.
Apéndice
Consideremos conveniente presentar algunos ejemplos de taxonomía en tres disciplinas (botánica, psicología y sociología) por la unidad que puedan tener a los fines de orientación del lector en estas áreas.
En psicología, es quizá donde se ofrecen las taxonomías más completas, aunque existen distintos desacuerdos en cuanto a algunos supuestos básicos.
El dominio de la psicopatología es tradicionalmente agrupado en cuatro grandes áreas: neurosis, psicosis, trastornos psicométricos y trastornos de la conducta.
Las neurosis comprenden una serie de síntomas que no constituyen una clara ruptura con la realidad, que representan cierta permanencia en el individuo o que concurren periódicamente sobre lapsos extendidos de tiempo.

Muestreo
Universo o población so palabras utilizadas para referirse al conjunto total de elementos que constituyen en un área de interés analítico.
Los elementos que constituyen a una población, por su supuesto, no tienen que ser necesariamente individuos humanos; uno puede referirse a naciones, grupos, edificios, animales, objetivos físicos o elementos abstractos.
Los parámetros poblacionales caracterizan las distribuciones en la población o universo; estos pueden ser valores de ciertas distribuciones de variables aleatorias tales como la media aritmética o la desviación estándar.
La teoría del muestreo tiene como propósito establecer los pasos o procedimientos a través de los cuales sea posible hacer generalizaciones sobre la población a partir de un subconjunto de la misma, con un grado mínimo de error.
Los valores muéstrales son los estadísticos computados a partir de las muestras y con los cuales se buscara estimar los parámetros poblaciones. Según Galtung una muestra debe en general satisfacer dos condiciones: 1) En ella debe ser posible poner a prueba hipótesis sustantivas, 2) Debe ser posible poner a prueba hipótesis de generalización.
En razón de que vamos a concentrarnos en señalar los modos operacionales para obtener distintos tipos de muestra y no en la teoría estadística de las distribuciones muéstrales.
Distintos tipos de muestreo
Muestras predispuestas: son aquellas que han sido seleccionadas de manera tal que la comprobación o la refutación de las hipótesis pasa a ser el resultado de procedimientos de muestreo.
Muestreo no predispuesto: son aquellas cuya probabilidad de extracción es conocida.
Las Muestras que vamos a considerar:
Muestras probabilísticas
1.    Muestreo simple al azar
2.    Muestra sistemática
3.    Muestra probabilística
4.    Muestra por conglomerados
Muestreo no probabilístico
1.    Muestra casual
2.    Muestra intencional
Muestras para probar hipótesis sustantivas.
Muestras probabilísticas
Muestreo al azar simple: Un muestreo al azar simple es aquel en el cual todos los individuos de la población tienen la misma probabilidad de ser muestreados. Si los (individuos, unidades muéstrales, etc.) de una población de tamaño N pueden numerarse desde 1 hasta N, una forma de llevar a cabo un muestreo aleatorio simple consiste en seleccionar n de estos números de manera aleatoria (por ejemplo utilizando una tabla de números al azar).
Muestreo estratificado: Consiste en subdividir a priori la población en subunidades o estratos y luego hacer un muestreo aleatorio dentro de cada estrato. La subdivisión responde a un conocimiento a priori de la existencia de dichos estratos y de que el parámetro a medir está influido por ellos. La no estratifican llevaría a que datos de dos poblaciones distintas sean tomados como si fueran de una única población lo que llevaría a un aumento en la varianza y a un sesgo en la estimación del parámetro.
Muestreo sistemático: Cuando una población puede ser numerada en orden o cubre un área espacial bien definida, se puede muestrear de manera sistemática muestreando a intervalos regulares (tomando los individuos pares de la población o muestreando cada cierta distancia). Para que este tipo de muestreo permita calcular errores de muestreo o realizar comparaciones entre poblaciones, se debe cumplir el supuesto que los estén distribuidos al azar. Este tipo de muestreo es generalmente más fácil de llevar a cabo que los muestreos aleatorios.
Como se puede ver a lo largo de los ejemplos, las muestras pueden ser individuos, áreas espaciales, fracciones de tiempo, etc., todo depende de la pregunta que se quiera responder y del sistema donde se esté trabajando. Existen situaciones donde son necesarias aproximaciones o diseños muéstrales que son de gran utilidad y son tal vez menos intuitivos.
Muestreo por conglomeradosSe utiliza cuando la población se encuentra dividida, de manera natural, en grupos que se supone que contienen toda la variabilidad de la población, es decir, la representan fielmente respecto a la característica a elegir, pueden seleccionarse sólo algunos de estos grupos o conglomerados para la realización del estudio.
Muestreo no probabilístico
Muestreo Casual: El criterio de selección depende de la posibilidad de acceder a ellos. Es frecuente utilizar sujetos que las condiciones nos permiten. Por ejemplo entrevistar a la salida de un autobús o a personas que pasan por la calle-

Muestreo Intencional: Se eligen los individuos que se estima que son representativos o típicos de la población. Se sigue el criterio del experto o el investigador. Se seleccionan a los sujetos que se estima que puedan facilitar la información necesaria

Cuestionario
Motivación en el entrevistado y el cuestionario como una unidad. la motivación depende de factores tales como; objetivo de estudio, quien lo patrocina, el tipo de preguntas, disponibilidad del sujeto, duración de la entrevista, asi como la apariencia y desempeñó del entrevistador.
En el diseño de las preguntas o cuestiones hay que tener en cuenta las características generales y aptitudes de la persona que pasará el cuestionario y quién lo va a contestar. Sería conveniente que el encuestador esté debidamente entrenado para dar una información adecuada y uniforme sobre cómo responder; en caso contrario el efecto del experimentador podría ser una posible fuente de error.
No existen unas reglas fijas que pueden ser aplicadas automáticamente a la hora de generar preguntas; sí se pueden dar algunas recomendaciones que ayuden a evitar los errores más frecuentes.
a) A cada pregunta debe corresponderle una sola respuesta. Las preguntas no deben formularse de forma ambigua o dando lugar a varias respuestas válidas.
b) El contenido de la pregunta debe de ser oportuno y referirse sólo al objeto de nuestro estudio y a la variable concreta que queremos investigar.
c) Las preguntas deberán formularse con precisión debiendo tener controlado el tipo de respuesta. Cada uno de los ítems o preguntas debe evaluar un solo aspecto o dimensión.
Las preguntas pueden clasificarse en abiertas y cerradas. Son dos tipos de pregunta en las que lo que se indaga tiene que ver con la libertad de respuesta deseada.
Pregunta abierta: Es aquélla en la que el sujeto que responde puede hacerlo con sus propias palabras sin verse limitado a elegir entre categorías de respuesta predeterminadas. Provoca respuestas explicativas y da información más intensa y profunda. Estas preguntas tienen el inconveniente de que no se pueden analizar estadísticamente.
Pregunta cerrada El sujeto no puede responder más que a categorías de respuesta limitadas. Nos permiten recabar información puntual y objetivable a nivel de análisis estadístico.