O slideshow foi denunciado.
Utilizamos seu perfil e dados de atividades no LinkedIn para personalizar e exibir anúncios mais relevantes. Altere suas preferências de anúncios quando desejar.

Metodología de la investigación

3.439 visualizações

Publicada em

Materia de Psicología

Publicada em: Ciências
  • Seja o primeiro a comentar

Metodología de la investigación

  1. 1. Metodología General de la Investigación - Resumen Capítulo 1: Tres aproximaciones a la ciencia. Marradi  Galileo y el método experimental       Muchos filósofos opinan que la ciencia moderna empieza a fines del siglo XVI con  Galileo. Según la visión Aristotélica, la tarea de la ciencia era identificar la naturaleza de  cada especie de objeto del conocimiento, separando lo que es esencial y fijó (la sustancia)  de lo que es accidental y variable.       Para Galileo la tarea de la ciencia es formular, controlar y decidir aserciones acerca de  relaciones entre las propiedades de los objetos. El científico tiene que hallar la forma  matemática que estas relaciones tienen en la naturaleza. El científico debe saber interrogar  hábilmente a la naturaleza y penetrar en sus secretos. Galileo sentó las bases del método  experimental.       En su forma ideal, un experimento se obtiene solo cuando se observan los efectos de  variaciones controladas de una propiedad llamada “operativa” en otras propiedades  llamadas “experimentales” mientras se mantienen constantes todas las otras propiedades  que podrían influir sobre la segunda. La sabiduría consiste no solo en elegir la propiedad  operativa más apropiada sino también en producir cambios perfectamente controlados en  ésta, y en bloquear todas las variaciones en las otras propiedades que se sabe o se supone  puedan influir sobre la experimental, manteniéndose efectivamente constantes.       Los objetos de muchas ciencias físicas poseen una característica que no tienen los  objetos de las ciencias sociales: son fungibles (intercambiables). Es decir, se puede dar por  sentado que los objetos del mismo tipo siempre reaccionan de la misma manera bajo las  mismas condiciones.  Límites del modo experimental       Un límite teórico consiste en el hecho que jamás se puede excluir con seguridad que  otras propiedades, no incluidas en el modelo, influyan en la propiedad experimental. Debido  a la presencia de estas innumerables propiedades, el modelo nunca se puede dar por  “cerrado”.  Los límites prácticos consisten en que no siempre es técnicamente posible controlar a la  perfección las variaciones de la propiedad operativa, y todavía es menos posible neutralizar  perfectamente la influencia de las propiedades que se deberían mantener efectivamente  constantes.       El método experimental es adecuado para investigar relaciones monocausales,  típicamente diacrónicas. No es adecuado investigar relaciones funcionales, típicamente  sincrónicas. Tampoco es adecuado para investigar sistemas complejos de relaciones  causales, cuando hay una tupida de red de interacciones entre muchas propiedades que  ejercen influencias diferentes en diferentes combinaciones.       Estos límites tienen graves consecuencias en las ciencias sociales. La razón es que no  se pueden separar una pareja de propiedades bloqueando otras. En ciencias sociales no se  puede pensar que los objetos son fungibles y que se pueda estudiar un individuo y  extrapolar el resultado al resto de la sociedad.  La matriz de datos y el supuesto atomista       Es una herramienta elaborada por matemáticos del siglo XVI formado por un cruce entre  un haz de vectores paralelos horizontales y otros verticales. Tiene usos en variadas  disciplinas.  1 
  2. 2.      Permite tratar la variabilidad entre objetos del mismo tipo sin renunciar a formas de  análisis estadístico. Una vez que se ha registrado en una matriz el estado de n sujetos en p  propiedades, esta nos permite establecer cuáles son las relaciones entre las parejas de  propiedades.  El método de la asociación       Se podría llamar método de asociación este que sustituye al método experimental en las  ciencias sociales siguiendo en el marco del enfoque estándar de la ciencia.  El enfoque que se contrapone a la visión estándar       En la aproximación comúnmente llamada “cualitativa” conviven formas de investigación  muy diferenciadas: el único rasgo seguramente común a todas es un rasgo negativo, y es la  no adopción de que en la mayoría de los casos es un rechazo a adoptar los supuestos  fundamentales de la visión estándar de la ciencia. Más allá del rechazo, estos  investigadores muy a menudo comparten un valor en positivo: la sensibilidad hacia el aporte  cognoscitivo y los derechos humanos de los sujetos conocidos, una sensibilidad que a  veces se constituye en una verdadera “epistemología del sujeto conocido”       Se siguen unos caracteres comunes que se pueden identificar en la mayoría de los  caminos no estándar de investigación:  a) Orientación para reducir al mínimo la separación entre ciencia y vida cotidiana. Gran  atención por problemas de significado y una actitud de escucha frente a la realidad en vez  de una rígida limitación a modelos a priori.  b) fuerte dependencia del contexto  c) preferencia por los problemas micro  d) orientación marcadamente ideográfica, descriptiva e inductiva  e) preferencia por la comprensión global de “provincias delimitadas de significado”  f) el hecho de que la causación, si es contemplada, es considerada un proceso que se  reconstruye por medio de narraciones y no por medio de relaciones estadísticas entre  instantáneas escalonadas en el tiempo o entre variables relevadas en el mismo momento  g) gran importancia de las cualidades y capacidades del investigador y de sus  colaboradores  h) la dificultad para desarrollar este género de investigaciones sin caer en lo banal, en lo  gratuito, anecdótico, etc.    ____________________________________________________________________    Capítulo 2: Los debates metodológicos contemporáneos. Marradi      Durante el siglo XX, los debates se centraron en los conceptos cualidad y cantidad.  Uno de los principales ejes de la controversia se estructuró alrededor del abordaje elegido  para dar cuenta de la relación individuo y sociedad, dando lugar a una perspectiva centrada  en el sujeto por un lado, y otra centrada en la estructura social.       La diversidad de estos enfoques y sus desacuerdos dieron lugar a debates  epistemológicos sobre el estatus científico de las ciencias sociales, y metodológicos sobre  los modelos de producir y validar el conocimiento científico en estas disciplinas.        Al calor de estas controversias se definieron dos bandos: uno bajo la mediación como  mejor medio para asegurar la cientificidad de las prácticas de investigación de las ciencias  sociales, y otro comprometido con el rechazo radical de cualquier intento de cuantificación  de la realidad social.  2 
  3. 3.      Estos debates cobraron actualizada en la década del 60 cuando terminaron de  popularizarse las antinomias cualitativo vs cuantitativo; explicación vs comprensión,  objetividad vs subjetividad, neutralidad vs participación; en definitiva, descripción de la  sociedad “tal cual es” vs crítica y transformación de la sociedad actual.       A partir de los 80 esta controversia epistemológica comenzó a perder fuerza. Se fue  imponiendo lo que se llamó “argumento técnico”: los métodos cuantitativos y cualitativos son  apropiados para alcanzar distintos objetivos y tratar problemas de índole diferente, y la tarea  del investigador no es apegarse estrictamente a un modelo, sino tomar decisiones  pertinentes en base al problema que se va a investigar. También es posible pensar un  problema cuyo abordaje requiere la combinación de métodos, que fue llamado  “triangulación metodológica”.  El debate intra positivista       La perspectiva generalista encontró su versión metodológica más acabada con el  positivismo. Durkheim, a la luz del modelo de las ciencias naturales, estableció una analogía  entre el objeto de las ciencias sociales (el hecho social) y las cosas, y predicó la necesidad  de tratar metodológicamente al primero igual que a la segunda. Esto venía de la mano de  un monismo metodológico, o sea, que existe un único modelo válido para todas las ciencias.  La propuesta de tomar como modelo a la física suponía que la realidad social también  estaba regida por leyes universales, susceptibles de ser descubiertas a partir de ese mismo  método científico.       Se pretendía cuantificar aspectos de la realidad social para luego poder establecer  sistemáticamente relaciones entre ellos, con el objetivo final de postular leyes generales  sobre el funcionamiento de la sociedad y de los fenómenos sociales.       A la idea de generalización se sumaban las de objetividad y externalidad: el carácter  externo y autónomo de la realidad exigía la objetividad como requisito para alcanzar  conocimiento válido.       El carácter empírico de la actividad científica, basada en la medición y el manejo de  datos como sustento de la explicación adquirió un carácter predominante a través de la  técnica de sondeo.        Popper propone una alternativa a lo antes planteado llamado falsacionismo. El habla de  un criterio de demarcación que distingue el conocimiento científico. No se interesaba tanto  en la distinción de ciencia y metafísica, su objetivo primordial era el de diferenciar la ciencia  de la pseudociencia. La pseudociencia, para Popper, es el conocimiento que se presenta  como científico pero que en realidad tiene que ver con los mitos primitivos. La ciencia sigue  un camino hipotético­deductivo, y la característica singular del conocimiento científico es  que esta conjetura debe ser pasible de falsación, es decir, debe poder ser demostrada falsa.       La consagración del método hipotético­deductivo como única vía válida para la  producción de conocimiento científico revitalizó la idea del monismo metodológico. Para  Popper, la ciencia se ocupa de explicaciones conformadas por sistemas de hipótesis que  han resistido las pruebas de falsación, y estas pruebas solo pueden hacerse a través de un  único y mismo método.       Estas ideas fueron tomadas como base epistemológica por parte de la sociología  académica de la época y ayudó a dar sustento al “consenso ortodoxo” de las ciencias  sociales. Las propuestas de Popper pasaron a formar parte de los manuales de  metodología de la investigación social, en donde se presentaba “el” método científico.  3 
  4. 4.      Kuhn critica la visión de Popper y dice que la ciencia debe ser concebida como un  proceso histórico, no se trata de un producto lógico­racional que se produce en el vacío sino  de un conjunto de prácticas sociales que tienen lugar en el seno de una comunidad  científica. Su concepto clave es el paradigma. Kuhn distingue entre una etapa  preparadigmática (no hay acuerdos sobre el objeto de estudio y proliferan corrientes) y otra  etapa paradigmática (cuando un paradigma logra imponerse). Ocurrirán “crisis” (producto de  anomalías) donde la ciencia puede volver a una situación preparadigmática y  eventualmente desembocar en una revolución científica, donde se conformará un nuevo  paradigma. Kuhn (y otros) han planteado que las ciencias sociales nunca han pasado de la  etapa preparadigmática.  Imre Lakatos apuesta por conciliar el falsacionismo con la perspectiva de Kuhn, es lo que se  conoce como programa de investigación. Estos programas de investigación incluyen un  núcleo duro (conjunto de hipótesis fundamentales) y un cinturón protector (construido por  hipótesis auxiliares).  Las críticas al positivismo y los enfoques no estándar       El término hermenéutica significa interpretación, y en su sentido moderno hace  referencia a una interpretación profunda que involucra la relación compleja entre sujeto  interpretador y objeto interpretado.       La tradición hermenéutica adquiere relevancia metodológica y epistemológica para las  ciencias sociales en la medida que destacó la especificidad de su objeto de estudio, y la  consecuente necesidad de métodos propios para abordarlo, ligándose al problema de la  interpretación.       Giambattista Vico hablaba que el conocimiento era la sabiduría práctica, y que estos  fenómenos estaban gobernados por aspectos imponderables.        Se va a ir consolidando una distinción entre el conocimiento del mundo material, para el  cual las hermenéuticas no negaban los principios y metodologías generalizadoras de corte  positiva, y el conocimiento de los fenómenos espirituales (humanos) que requerían una  interpretación profunda y que no podían ser reducidos a leyes universales. Apareció la  distinción entre aproximaciones nomotéticas (típicas de las ciencias naturales) que tienen  por objeto la postulación de las leyes generales basadas en procesos causales uniformes, y  aproximaciones idiográficas (típicas de las ciencias humanas) cuyo objeto es el estudio de  los fenómenos cambiantes que deben ser interpretados contextualmente.       Esta tradición maduró en las ciencias sociales empíricas de Weber, un antecedente de la  perspectiva no estándar. Weber define a la sociología como una ciencia que pretende  entender la acción social, interpretándose. Pero dado que para él la acción es un  comportamiento subjetivamente significativo, promueve la comprensión como el método  adecuado para investigarla.       Desde un punto de vista instrumental y operativo, los denominados métodos cualitativos  de investigación, enmarcados en la corriente interpretativa weberiana, abrevan el método  etnográfico de la antropología clásica. Todo esto también se enmarca en la investigación  social no estándar.       Znaniecki propone la distinción metodológica entre inducción enumerativa (en la que los  casos son tratados como ejemplos de colectivos) e inducción analítica (en la que cada caso  ilumina aspectos de una teoría general). La inducción analítica pasará a ser considerada  como intrínsecamente etnográfica.  4 
  5. 5.      Con los trabajos de Park y Burgess la etnografía se reorienta hacia la propia sociedad.  Su mirada se encauza hacia la diversidad ciudadana a través del análisis de todas las  otredades urbanas. Blumer desarrolla el interaccionismo simbólico, orientado a comprender  toda situación social desde la visión e interpretación del propio actor en interacción. El  método consiste en asumir el papel del actor y ver su mundo desde su punto de vista.      A partir de los 60, las críticas a la sociología convencional abrieron la puerta a la  investigación no estándar. Se resignifican algunas prácticas metodológicas de la  antropología clásica y de la sociología, dándoles un fundamento teórico­epistemológico de  corte interpretativista que aparentemente no habían tenido en sus orígenes. Aquí jugaron un  papel importante los aportes de la hermenéutica, el constructivismo, la fenomenología, la  teoría crítica y otros.        La traducción interpretativa intenta dilucidar los procesos de construcción de sentido.  Schutz (1962) sostuvo que los individuos constituyen y reconstituyen su mundo de  experiencia. El focaliza sus estudios sobre los procesos a través de los cuales los sujetos  producen interpretaciones que dan forma a lo real en la vida cotidiana. Sostiene que las  ciencias sociales están conformadas por constructos de segundo orden, que le dan sentido  a los constructos de primer orden de los actores en la vida cotidiana.       Heredera de la fenomenología de Schutz es la etnometodología de Garfinkel. La  preocupación de este autor se orienta a la producción, legitimación, cuestionamiento y  reproducción del orden social por las actividades interpretativas de los sujetos. Desde esta  perspectiva la conducta es descrita y explicada por su referencia a consensos socialmente  compartidos. En análisis se focaliza de otorgamiento de sentido a partir de normas sociales  que dan como resultado los criterios de normalidad.       La corriente constructivista predica también la imposibilidad del conocimiento objetivo,  fundamentado en la existencia de múltiples realidades, construidas desde diferentes  perspectivas.       Desde la antropología interpretativa se propone la interpretación como alternativa a las  explicaciones causales de la cultura. Para Levi­Strauss, la conducta era explicada a partir  de la estructura social y el significado era indagado en las reglas constitutivas del sistema  organizador de las acciones. Considera que la descripción densa constituye la forma  adecuada para dar cuenta del proceso de formación de sentido del sujeto.       Otra vertiente es la teoría fundamental introducida por Glaser y Strauss, como un método  para generar teoría a partir de los datos empíricos. La relación entre teoría y datos se  invierte: estos pasan de ser la instancia verificadora/falseadora a ser la fuente de la teoría.  Promueve una metodología fundada en la inducción, en la que un muestreo estadístico es  suplantado por el muestreo teórico. Las unidades de observación se seleccionan según  criterios formulados desde la perspectiva del investigador, y el tamaño de la muestra se  alcanza por saturación, es decir, cuando ninguna observación adicional agrega nada  relevante.       Vinculada a la escuela de Frankfurt nace la teoría crítica, donde se incorpora la  valoración política entre los elementos del proceso investigativo. Cuestionan la objetividad  del pensamiento moderno y lo interpretan en términos de su consecuencia política.       Existen muchas escuelas que se insertan en la teoría crítica sin tener un consenso único,  como es la crítica epistemológica y metodológica feminista, donde se cuestiona el  esencialismo, en la medida en que este apunta a la legitimación de las relaciones de  5 
  6. 6. dominación entre los géneros anclados en la biología. Esto dio lugar a nuevas categorías de  análisis como el “género”.       La reactivación del interés por la investigación cualitativa a partir de la década del 60  también implicó que gran parte del debate metodológico se traslada desde la oposición  cuantitativo/cualitativo hacia el interior de los métodos cualitativos. Schwandt identifica 4  ejes en el debate de lo intra cualitativo:  a) Criterios y objetividad, centrado en cuál es el fundamento de las interpretaciones  b) El alcance crítico o compromiso político, que lleva a una distinción ente teórica  descriptiva y prescriptiva  c) La autoridad del investigador a partir de la legitimidad de la interpretación  d) Confusión de las demandas psicológicas y epistemológicas.  Una de las principales críticas a los métodos no estándar se ha dirigido a su supuesta falta  de rigor y precisión, así como su incapacidad para generalizar los resultados. A partir de  esto, se instaló en la agenda cualitativa la búsqueda de instrumentos conceptuales y  criterios alternativos que fueran más adecuados para juzgar sus procedimientos y sus  productos. A pesar de todo esto, no se ha establecido un consenso en los criterios de  calidad en los estudios cualitativos. Tal vez esto se deba a que en los 90 coexisten una  multiplicidad de concepciones que tienen en común la perspectiva del sujeto, lo cual  responde a una realidad de un mundo posmoderno, múltiple y fragmentado, donde no es  posible ninguna generalización y donde coexisten diversas perspectivas. Se da el contexto  donde los límites entre los estilos cualitativos y cuantitativos se han vuelto imprecisos.       Pierre Bourdieu intentó superar el debate cualitativo/cuantitativo. Esta particularidad  promueve la superación de las típicas antinomias epistemológicas y metodológicas de las  ciencias sociales: explicación/comprensión, subjetivo/objetivo, micro/macro, etc. Bourdieu  buscó integrar prácticas habitualmente conocidas como cualitativas con otras cuantitativas.  En los últimos años se han propuesto diversas formas de articulación o integración entre las  diferentes perspectivas metodológicas, se conoce como triangulación metodológica.   Las propuestas de superación del debate cualitativo­cuantitativo: la triangulación  metodológica y sus límites       Han surgido propuestas tendientes a integrar las estrategias cuali/cuanti, bajo la idea de  que ambos métodos son válidos y compatibles.       Denzin fue uno de los primeros responsables de la difusión de la idea de triangulación,  distinguiendo cuatro formas: de datos, de investigadores, teórica y metodológica. A su vez,  promueve una diferenciación entre triangulación intra método e inter método.       Los principales objetivos de la triangulación en las ciencias sociales son la convergencia  y la completitud, como medio de validación convergente o como modo de alcanzar una  comprensión más acabada de un mismo fenómeno, desde distintos ángulos. Por supuesto,  la idea de la triangulación también ha sido objetada.       De todos los tipos de triangulación, la metodología es probablemente la que ha adquirido  mayor difusión y popularidad, al punto de que se han acuñado nuevas expresiones para dar  cuenta de ella. Esta implica el uso conjunto de dos o más métodos para abordar un mismo  problema o problemas diferentes pero estrechamente relacionados. El principal argumento  a su favor es que de este modo se aumenta la confianza en los resultados.    ____________________________________________________________________    6 
  7. 7. Capítulo 3: Método, metodología, técnicas. Marradi  Al término método se le atribuyen significados diferentes. Una de ellas es que el método es  el camino para conseguir un fin. En el lenguaje científico encontramos método como  procedimiento, técnica.  La visión científica del método  Descartes proclama el papel central del método en la actividad intelectual, señalado  también por Francis Bacon.       La idea de un programa que establece con anticipación una serie no modificable de  operaciones que, de ser practicadas, garantizan el conocimiento científico sobre cualquier  argumento, es todavía hoy uno de los significados que prevalece a la expresión “método  científico”.       Una descripción puntual del método hipotético deductivo es la siguiente:  1. Se define el problema  2. El problema se formula en los términos de un particular cuadro teórico  3. Se imaginan una o más hipótesis, utilizando los principios teóricos ya aceptados  4. Se termina el procedimiento a utilizar en la recolección de datos para controlar la  hipótesis  5. Se recolectan los datos  6. Se analizan los datos para averiguar si la hipótesis es verificada o rechazada  Críticas a la visión clásica       No todos están de acuerdo. Dalton presume que el método científico es la única vía  hacia el conocimiento; sin embargo Becker se pregunta si el método afronta realmente todo  el espectro de cuestiones metodológicas relevantes. Mokrzycki sostiene que el método  científico está fuera de la sociología. Las diferentes reacciones están relacionadas con un  período, en donde la orientación científica dominaba en las ciencias sociales: se sostenía no  solo que la ciencia tiene un solo método, sino que se trata de un método santificado por los  éxitos de las ciencias físicas. En los años siguientes, esta idea de unidad del método ha  sido criticada.       Una segunda línea crítica señala el peligro de que una particular serie de conocimientos,  identificada como el método científico, se ratifique y se vuelva un fin en si. SI el criterio es el  respeto a un sistema de reglas, incluso una guía telefónica es una buena investigación  científica.       Son muchos los que se refieren al método como una elección. Es en la toma de  decisiones donde consiste la investigación científica. El método es, por lo tanto, mucho más  complejo que una simple secuencia unidimensional de pasos.  Método y metodología       El uso de método/métodos en el sentido de técnica/técnicas ha sido y es endémico en  las disciplinas más orientadas a la investigación empírica, que están más frecuentemente  en contacto con instrumentos operativos. Los métodos son “más nobles y generales” que  las técnicas.       Se ha hablado de la indebida expansión semántica del término método, pero un abuso  todavía más grave lo sufre el término “metodología”. El sufijo “logia” esta utilizado en el  sentido de “discurso sobre”, por lo tanto, metodología debería ser el discurso, estudio,  reflexión sobre el método. En la investigación social norteamericana se ha generado la  costumbre de llamar “methodology” a la técnica.  7 
  8. 8.      Sobre la metodología se discute si ella debe ser una disciplina prescriptiva o descriptiva.  La contraposición descriptivo/prescriptivo encuentra un paralelo en la discusión entre los  dos significados que el término metodología tiene en el lenguaje corriente de la  investigación social, significado que corresponde a los dos roles del metodólogo profesional.  Cuando estudia y enseña, un metodólogo debe tener una orientación descriptiva, es decir,  debe estar abierto a aprender de las experiencias de otros investigadores evaluándose sin  preconceptos, y dispuesto a referir en modo sistemático y sintético aquello que ha  aprendido. Cuanto utiliza sus propias competencias, capacidad y experiencia al servicio de  una investigación, suya o de otros, el metodólogo no puede ser otra cosa que prescriptivo,  en cuanto que debe elegir los instrumentos a utilizar y como utilizarlos.  Las técnicas   ​    También deriva del griego. Designa una capacidad artística, no aquella individual e  irrepetible, sino aquella más doméstica del artesano, transmisible de padre a hijo. En un  segundo significado, una técnica se sirve del conocimiento adquirido por las ciencias sobre  la realidad para modificar algunos aspectos de ésta. En un tercer significado, es una ciencia  la que se sirve de técnicas para conocer mejor algún aspecto de su objeto       Las técnicas de las que hablamos aquí son instrumentales a los fines cognoscitivos de  diversas ciencias. Son los procedimientos específicos empleados en una ciencia, o por un  particular género de investigación. El adiestramiento científico tiene que ver en gran medida  con la adquisición del dominio de las técnicas.       La tarea del investigador/metodólogo consiste en escoger el camino, teniendo en cuenta  la naturaleza de los senderos presentes en el terreno, el tiempo y los recursos disponibles.  Lo esencial del concepto del método está en lo siguiente: en la elección de las técnicas a  aplicar, en la capacidad de modificar técnicas existentes, adaptándolas a los problemas  propios y de imaginar técnicas nuevas. Una vez que un procedimiento nuevo, o una  modificación de un procedimiento, han sido ideados y son codificados y difundidos, estos se  ratifican y se convierten en una técnica a disposición de la comunidad de investigadores: no  ya en una capacidad privada sino en un objeto público.       Los resultados de una investigación dependen de las elecciones que el  investigador/metodólogo ha realizado. Es por este motivo que el informe de investigación  debe tener dedicada una amplia sección para comentar las elecciones realizadas,  evaluando sus impactos sobre los resultados (lo cual generalmente no ocurre). Como  determinantes de esta situación, convergen varios factores:  ● El objetivismo del investigador  ● El hecho de que buena parte del público se comporta como si estuviera leyendo una  novela y no se interesan por los detalles de la investigación  ● Las casas editoriales también se comportan como los lectores del punto anterior.    Los autores confinan el informe metodológico a un apéndice.  Epistemología y gnoseología       En lo que respecta a la relación entre metodología (y método) y epistemología, existe un  consenso general sobre el hecho de que la metodología ocupa la porción central de un  continuum analítico crítico entre el análisis de los postulados epistemológicos que hacen  posible el conocimiento social y la elaboración de técnicas de investigación. Ocuparse de  metodología es encontrarse en una continua tensión dialéctica entre los polos de este  continuum, porque si la metodología abandona su lado epistemológico se reduce a una  8 
  9. 9. tecnología o una práctica que ya no controla intelectualmente. Si abandona el lado técnico,  se transforma en una pura reflexión filosófica sobre las ciencias sociales, incapaz de incidir  sobre las actividades de investigación.       Resta agregar que en uno de los polos no se encuentra tan solo la epistemología, sino  también la gnoseología, la cual reflexiona sobre los fines, condiciones y límites del  conocimiento. Esta gnoseología es frecuentemente olvidada, las razones pueden ser dos:  una lingüística y otra sustancial. El término “gnoseology” no existe en inglés, así que no  aparece en la literatura anglosajona, aquí se usa “epistemology” para designar la filosofía  del conocimiento (gnoseología) y “philosophy of science” para lo que nosotros llamamos  epistemología.       El segundo motivo puede derivar de que todos los intentos de dar un fundamento de  certeza al conocimiento científico ha fracaso frente a la constatación, inevitable en  gnoseología, de que no puede haber nexos rígidos entre la esfera de los referentes (la  realidad), la esfera del pensamiento y la esfera del lenguaje.    ____________________________________________________________________    Capítulo 5: el diseño de la investigación. Marradi Introducción       Vamos a utilizar el término de investigación en un sentido realmente amplio. La  investigación es un proceso sistemático y organizado por medio del cual se busca descubrir,  interpretar o revisar ciertos hechos, y cuyo producto es un mayor conocimiento de éstos.       En este proceso se involucra una gran cantidad de decisiones y acciones articuladas y  con distintos niveles de complejidad. Desde un punto de vista restrictivo se considera en  particular al conjunto de decisiones y actividades orientadas a establecer relaciones  causales entre distintos aspectos de la realidad bajo estudio o, al menos, al control empírico  (e impersonal) de la hipótesis, es decir, conjeturas acerca de la realidad que postulan cierto  tipo de relación entre determinados aspectos de ésta. La investigación es un proceso que  involucra conjunto de decisiones y prácticas por los cuales conocemos algunas situaciones  de interés, cuya definición y delimitación forma parte de las decisiones apenas aludidas.  Debe quedar claro que hablamos de investigaciones empíricas, o sea, aquellas que tienen  algún tipo de relación observacional con la situación de interés.       La relación observacional puede reducirse únicamente al empleo de una técnica de  observación en particular. Entre las muchas decisiones que se toman en una investigación,  también está la de definir cuáles son las mejores herramientas técnicas (por ejemplo, de  observación) de acuerdo con los objetivos cognitivos que se hayan planteado.       Que el proceso este atravesado por decisiones y operaciones que dependen en gran  medida del conocimiento tácito no significa que sea totalmente caótico, desordenado o  imprevisible. Por el contrario, este proceso puede ser diseñado y planificado y, entre otras  cosas, esto será un modo de hacerlo más controlable en la medida que exigirá un esfuerzo  por explicitar de modo anticipado las distintas decisiones involucradas en el mismo. Según  el diccionario, un diseño es una descripción o bosquejo, un proyecto o plan.  Características del diseño de la investigación       El diseño es una representación modélica y abstracta de cómo será, es esquemático. En  la investigación empírica, esta anticipación en abstracto de las decisiones que se van a  tomar durante su curso también puede variar, y tal variación se dará en función del grado de  9 
  10. 10. detalle y explicitación que las decisiones teóricas y metodológicas adquieran antes de  establecer algún tipo de contacto observacional con los fenómenos de interés.       Esta concepción del diseño tiene dos consecuencias importantes. La primera es que por  definición no es posible una actividad de investigación no diseñada; lo que pueden existir  son dos actividades de investigación con distintos grados o niveles de diseño. La segunda  es que desde el punto de vista del grado de detalle del diseño de la investigación no se  puede pensar en tipos cerrados sino en un continuum de diseños posibles.       Podemos identificar dos polos en una investigación: por un lado una que está  absolutamente planificada de antemano y otro totalmente opuesto donde no está nada  planificado. Estos dos polos son los llamados “tipos ideales”, pero en la práctica se dan las  situaciones entre esos dos polos, lo que se plantea la idea del “diseño flexible”, los cuales  pueden ser más o menos estructurados según el grado de detalle que adquiera la  planificación previa. Se asume que existe un conjunto de decisiones en cualquier tipo de  investigación, este “mínimo” de diseño implica decisiones que se pueden agrupar en cuatro  grandes conjuntos:  ● Relativas a la construcción del objeto  ● Decisiones relativas a la selección  ● Relativas a la recolección  ● Relativas al análisis       Si bien todas están presentes de un modo u otro en el diseño de la investigación,  adquieren diferentes características en cada caso particular.       Por lo general, las investigaciones llamadas cuantitativas requieren de diseños más  estructurados, mientras que las cualitativas se prestan a diseños más flexibles.  La elección de un tema, delimitaciones del problema y su operativización       La primera y fundamental cuestión en un diseño de investigación es la delimitación de un  problema de investigación. Valles dice que la formulación del problema es un proceso de  elaboración que va desde la idea (propia o ajena) hasta la conversión de dicha idea en un  problema investigable. Esas ideas iniciales pueden concebirse como temas de investigación  que se relacionan con determinados recortes de la realidad propios de la estructura y del  estado de desarrollo de la disciplina científica dentro de la cual se inscribe el investigador  y/o de lo que habitualmente se conoce como “agenda de investigación”.       Hay grandes temas que no son directamente investigables, entre otras cosas por su  grado de abstracción, complejidad y amplitud. Sin embargo, todo tema puede llevar a  convertirse en un problema de investigación, o sea, dar lugar a preguntas específicas que  se puedan abordar empíricamente. Un problema se define y construye a partir de un tema  más amplio. Esta definición implica fundamentalmente un movimiento progresivo desde lo  abstracto y general del tema hacia lo concreto y específico del problema. Pero el problema  no surge espontáneamente. El proceso de construcción, en cambio, puede ser  extremadamente complejo y no lineal, e implica la puesta en juego tanto de saberes tácitos  como de la experiencia; no hay una técnica para la formulación de problemas de  investigación. Este proceso es posible a partir de un conjunto de prácticas que se conocen  como indagaciones preliminares. Con esta expresión se suele aludir a las lecturas más bien  generales que permiten ir conquistando familiaridad con un tema, pero también se podría  pensar en otras modalidades de indagación como por ejemplo entrevistas con referentes en  la materia. Al plantearlas, se empieza a dar forma al problema de investigación. Pero las  10 
  11. 11. indagaciones en torno de este no cesan, sino que son cada vez más focalizadas,  constituyendo lo que se define como estado de la cuestión.       El investigador debe hacer un análisis de los antecedentes, generando un estado de  conocimiento sobre el problema en cuestión. No solo se deben conocer las investigaciones  previas que puedan existir, sino además generar un diálogo crítico hacia ellas.       La delimitación de un problema conlleva a la formulación de objetivos de la investigación.  Entre el problema y los objetivos existe una relación lógica de mutua implicación; solo que si  los problemas se plantean en una forma de interrogantes, los objetivos se expresan en  cambio por medio de proposiciones. Los objetivos son aquellos objetivos “cognitivos”, o sea,  aquellos orientados a acrecentar un conocimiento. Los objetivos se clasifican como  generales y específicos, siendo los últimos aquellos que se derivan lógicamente de los  primeros y cuyo cumplimiento concurre al logro de ellos.       Para decidir la estrategia metodológica y escoger los instrumentos adecuados a los  objetivos, resulta necesario desentrañar el problema de investigación y analizar todas sus  consecuencias en términos de una posible respuesta empíricamente construida. Desde  cierto punto de vista, se puede afirmar que siempre existirá algún tipo de supuesto acerca  de lo que se investiga, son inherentes al planteo de la pregunta. Estos supuesto no siempre  adquieren un grado de articulación tal de poder plantearse como hipótesis. Autores afirman  que las hipótesis pueden ser el resultado de una investigación más que su disparador  inicial. En otras ocasiones, ellas no se hacen explícitas desde un principio e igualmente  guían. Sin embargo, cuando el objetivo del estudio implique la contratación de hipótesis,  estas deberían estar precisamente formuladas, especulando sobre la naturaleza y la forma  de una relación. Hay autores que sostienen que los modos más comunes en que aparecen  las hipótesis en el trabajo científico son cuatro:  1) Declaraciones condicionales  2) Funciones matemáticas  3) Declaraciones continuas  4) Declaraciones diferenciales  Independientemente del grado de formulación de la hipótesis, se otorga al problema el lugar  central y la función rectora de la investigación. No podemos no contar con preguntas.  Para hacer operativo un problema de investigación, se lo puede pensar como la  explicitación del interés del investigador por conocer algo de alguien. Ese “algo” o “que” que  se quiere conocer se expresa a través de las propiedades conceptuales (y sus relaciones)  cristalizadas verbalmente en las preguntas que guían la investigación. Por otra parte, ese  “algo” se refiere siempre a “alguien”, un “quién” que está temporal y espacialmente situado y  que técnicamente se denomina unidad de análisis.       Con respecto al “algo” de interés deberemos comenzar por su conceptualización. Se  trata de dar definiciones precisas de qué se entiende en el contexto de la investigación por  aquellos términos clave que se expresan verbalmente en el foco de nuestra atención,  definiciones que en su conjunto conformarán un marco conceptual.       Habitualmente, las definiciones conceptuales son muy abstractas, las cuales se deberán  seleccionar a través de un proceso de operativización, o sea, debemos llevar al plano de lo  observable ese “algo” abstracto y luego elegir las herramientas adecuadas para observar.  Estas operaciones se basaran en un conjunto de decisiones que hemos denominado “de  recolección”.  11 
  12. 12.      También se deberá operativizar la unidad de análisis, el “alguien” de interés. En primer  lugar, dando una definición conceptual clara, esto implica dar criterios de inclusión y  exclusión, estos criterios serán categoriales, temporales y especiales (por ejemplo, si  estudiamos adolescentes, una definición de unidad de análisis podría determinar los límites  de edad para considerar una persona adolescente, etc.). Parte del diseño de investigación  consistirá en la construcción de una muestra, que según el tipo de estudio va a seguir  distintos criterios y asumirá diferentes características. Es crucial esta elección.       Solo cuando todas las decisiones hayan sido tomadas resultará posible realizar el trabajo  de campo.  Formalización del diseño: el proyecto de investigación       Como sostiene Samaja, el objetivo central de la fase formativa es construir  escrituralmente el objeto su versión global. Esta versión escrita y formal deberá seguir las  pautas implicadas en el proceso orientado a su gestión y control.    ____________________________________________________________________    La Construcción del Objeto. Bourdieu  El hecho se construye: las reformas de la renuncia empirista       “El punto de vista crea el objeto” dice Saussure. Es decir, una ciencia no podría definirse  por un sector de lo real que le corresponda como propio. El todo, tal como aparece en la  mente, es un producto de ella misma que piensa y se apropia del mundo. El sujeto, antes  como después, mantiene su autonomía fuera de la mente.        La ciencia se organiza en torno a objetos constituidos que nada tienen en común con  aquellas unidades delimitadas de la percepción ingenua. La epistemología empirista  concibe las relaciones entre ciencias vecinas, como psicología y sociología, como conflictos  de límites, porque se imagina la división científica del trabajo como división real de lo real. El  posible ver en el principio Durkheimiano según el cual “hay que considerar los hechos  sociales como cosas” el equivalente a lo que dijo Galileo que habla de la física moderna  como sistema de relaciones cuantificables.        Hay una importante distinción entre objeto “real” preconstruido por la percepción y  objeto científico, como sistema de relaciones expresamente construido. Según lo ya dicho,  si se abandona la investigación científica, o solo se multiplican los criterios tomados de la  experiencia común, entonces el objeto permanece como “objeto común” y no adquiere la  dignidad de “objeto científico”.       Un objeto de investigación, por más parcial y parcelario que sea, no puede ser definido y  construido sino en función de una problemática teórica que permita someter a un  sistemático examen todos los aspectos de la realidad puestos en relación por los problemas  que le son planteados.  Las abdicaciones del empirismo        Se puede definir al proceso científico como diálogo entre hipótesis y experiencia, donde  ambos socios asumirán roles simétricos e intercambiables, sin olvidarse que lo real nunca  tiene la iniciativa sino hasta cuando se lo interroga. Bachelard sostiene que el “vector  epistemológico” va de lo racional a lo real y no a la inversa. La teoría domina al trabajo  experimental, desde la partida hasta las últimas concepciones del laboratorio. Sin teoría no  seríamos capaz de realizar ningún tipo de comprobación.  12 
  13. 13.      La vigilancia epistemológica exige una explicitación metódica de las problemáticas y  principios de construcción del objeto que están comprendidas tanto en el material como en  el nuevo tratamiento que se le aplica. Si no se tiene en cuenta esos preliminares  epistemológicos, se está expuesto a considerar de modo diferente lo idéntico y a la inversa,  a comparar lo incomparable, etc.       Cualquier ciencia debería abstraerse de los hechos del empirismo, siempre recordando  la frase de “los hechos no hablan”, ya que corre el riesgo, de obtener los hechos de boca de  sus informantes, por lo tanto, podría ocurrir que sus prenociones se sustituyan con las  prenociones de los informantes. Obligarse a mantener aquellos elementos creados en  realidad por una indagación que se desconoce, es la manera más sencilla de negar que la  comprobación supone construcción.  Hipótesis o supuestos       Cualquier práctica científica responde a supuestos teóricos, siempre con miras a una  prueba experimental. El negar la hipótesis de la teoría es adoptar supuestos tales como las  prenociones.       Aun cuando se logre liberar de los supuestos, no podrá realizarse nunca el ideal  empirista del registro sin supuestos, aunque más no fuera por el hecho de que utiliza  instrumentos y técnicas de registro. La medida y los instrumentos de medición, y en general  todas las operaciones de la práctica de la ciencia que sea, son teorías en acto, en calidad  de procedimientos de construcción, conscientes o inconscientes, de los hechos y de las  relaciones entre los hechos.  La falsa neutralidad de las técnicas: objeto construido o artefacto       La ilusión de que las operaciones axiológicamente neutras son también  epistemológicamente neutras limita la crítica del trabajo. Esta discusión sobre neutralidad  sustituye la discusión epistemológica sobre la “neutralidad metodológica” de las técnicas, y  por esta razón, proporciona una nueva garantía de la ilusión óptica positivista.  Si no hay registros neutrales, entonces no hay una pregunta neutral. El no someter las  propias interrogantes no permitirá hacer un análisis verdaderamente neutral de las  respuestas que provoca.       El cuestionario más cerrado no garantiza la unicidad de las respuestas solo por el hecho  de que se someta todos los sujetos a preguntas formalmente idénticas. Suponer que una  misma pregunta tiene sentido para sujetos sociales distanciados por diferencias de cultura  pero unidos por pertenecer a una clase, es desconocer que las diferentes lenguas no  difieren solo por la extensión de su léxico o su grado de abstracción sino por la temática y  problemática que transmiten.  La analogía y la construcción de la hipótesis       Para poder construir un objeto, hay que ser consciente de que todo objeto científico se  construye deliberadamente y metódicamente y es preciso saber todo ello para preguntarse  sobre las técnicas de construcción de problemas planteados al objeto. Una metodología que  no se plantee el problema de la construcción de las hipótesis que se deben demostrar no  puede dar ideas nuevas y fecundas.       Contra el positivismo que pretende conducir a una formulación automática de hipótesis,  una hipótesis no puede ser conquistada ni construida sino a costa de un golpe de estado  teórico que, al no hallar ningún punto de apoyo en las sensaciones de la experiencia, no  podía legitimarse más que por la coherencia del desafío imaginativo lanzado a los hechos y  a las imágenes ingenuas o cultas de los hechos.  13 
  14. 14.      Tal exploración de los múltiples aspectos que supone un distanciamiento respecto de los  hechos, queda expuesta a las facilidades del intuicionismo, del formalismo o de la pura  especulación, al mismo tiempo que solo puede evadirse ilusoriamente de los  condicionamientos del lenguaje o de los controles de la ideología. Weber solo buscaba  explicitar las reglas de funcionamiento y las condiciones de validez de un procedimiento que  todo investigador utiliza consciente o inconscientemente, pero que no puede ser dominado   más que si se utiliza con conocimiento de causa. El tipo ideal como “guía para la  construcción de hipótesis”, según Weber, es una ficción coherente “en la cual la situación y  la acción es comparada y medida”, una construcción concebida para confrontarse con lo  real. El tipo ideal permite medir la realidad porque se mide con ella y se determina al  determinar la distancia que lo separa de lo real.       El razonamiento como pasaje de los límites constituye una técnica irremplazable le de  construcción de hipótesis. El arte de la búsqueda debe limitarse a proporcionar las técnicas  de pensamiento que permitan conducir el trabajo de construcción de la hipótesis al mismo  tiempo que disminuir los problemas inherentes  Modelo y teoría       Los dos son inseparables. Se reconoce el modelo teórico como depuración formal de las  relaciones entre aquellas que definen los objetos construidos. Por analogía inclusive pueden  provocar nuevas analogías, nuevos principios de construcción de objeto. Es este el  procedimiento que le confiere su fecundidad, es decir, su poder de generalización.    ____________________________________________________________________  Capítulo 6: Conceptos de objeto y unidad de análisis. Población y muestra. Marradi  Objeto y unidad de análisis       La matriz tiene una gran importancia en el “método de la asociación”, son las llamadas  “matrices de datos”, que es un cruce entre vectores horizontales y verticales, donde los  horizontales son objetos y los verticales son propiedades de estos objetos.       El término se entiende en un sentido gnoseológico, como posible objeto del pensamiento  (cualquier cosa en la que se piense). Los objetos en una matriz de datos pueden ser los  individuos.       El tipo de objeto acerca del cual se buscan informaciones en una investigación se llama  “unidad de análisis”. En una investigación se debe definir no solo la unidad, sino también el  ámbito espacio­temporal que interese.  Población y muestra       Una vez determinada la unidad de análisis y el ámbito espacio­temporal, el conjunto de  los ejemplares de esa unidad que se encuentran en dicho ámbito es llamado población.  Cada ejemplar de esta población puede devenir en un caso. Esto es una fila de la matriz.       Se presenta el problema de elegir un pequeño subconjunto de esta población para  investigarlos, esto se aborda con una herramienta clásica de las ciencias sociales: el  muestreo.        Un amuestra es cualquier subconjunto de miembros de una población que se investiga  con el fin de extender a toda la población las conclusiones resultantes del análisis de las  informaciones relativas al subconjunto. Esta extrapolación (de los resultados del análisis) de  14 
  15. 15. la muestra a la población entera es llamada “inferencia estadística” y tiene reglas precisas  que veremos pronto.  Muestras aleatorias y no aleatorias        Una muestra se dice aleatoria cuando todos los miembros de la población tienen la  misma posibilidad de ser extraídos y entrar en la muestra. La naturaleza aleatoria de una  muestra depende integralmente del procedimiento de extracción y no tiene nada que ver  con el resultado.       Algunos estadísticos hablan de “muestra aleatoria simple” cuando los miembros de una  población tienen la misma posibilidad de ser extraídos, y de “muestra aleatoria” cuando  cada miembro de la población tiene la misma probabilidad conocida y no nula de ser  extraído. Pero esta distinción ofrende una cobertura científica a procedimientos que tienen  poco que ver con la ciencia y mucho con los presupuestos de quien hace el sondeo.       Después de ahorrar dinero con estos procedimientos, las empresas tratan de remediar  su obvia consecuencia (subrepresentación de todas las áreas periféricas) con otro  procedimiento discutible: la ponderación.       Otro problema con los entrevistados, es que a veces simplemente no están en su casa, o  se niegan a ser entrevistados, esto también afecta el concepto de extracción aleatoria,  haciendo que una muestra perfectamente aleatoria se vuelva casi siempre no aleatoria, por  ejemplo, seguro atenderán más el teléfono las amas de casa, los desempleados y los  jóvenes que otro tipo de sujetos.  ¿Representativo de qué?        Para juzgar si una muestra es representativa debemos mirar el resultado,  independientemente del procedimiento con el que haya sido extraída.        Mientras que para juzgar si una muestra es aleatoria tenemos una pauta clara (misma  probabilidad de entrar en la muestra para todos los miembros de la población), para juzgar  si es representativa debemos recurrir a consideraciones difusas y subjetivas. La difusión y  subjetividad caracterizan todo el campo semántico de la representatividad.  1. La representatividad tiene que ser controlada y eventualmente afirmada por cada  propiedad por separado  2. Debido a que la representatividad se evalúa comparando la distribución de una propiedad  en la muestra con la distribución de la misma propiedad en la población, únicamente se  puede evaluar para las propiedades cuya distribución en la población es conocida, es decir,  solo para las propiedades que se relevan con un censo poblacional  3. La frase “esta muestra es representativa” no tiene sentido si no se le agrega “en lo que  concierne a las propiedades x, y z”.       Se puede afirmar que la extracción aleatoria no da ninguna garantía absoluta de que la  distribución de una propiedad cualquiera en la muestra sea representativa de la distribución  de la misma propiedad en la población. Solo da:  ● Una garantía absoluta de los sesgos (en el sentido de diferencias entre estas dos  distribuciones) no sean introducidos por el investigador, sino producidos al azar.  ● Una garantía razonable de que estos sesgos sean de magnitud limitada.  Como garantizar una (limitada) representatividad de una muestra aleatoria  ¿No hay ninguna manera de asegurar algo más que esta garantía negativa con una  muestra aleatoria? Si la hay, pero con respecto a un número limitado de propiedades, bajo  algunas condiciones, y solo con un tipo particular de extracción dominada sistemática.    15 
  16. 16. ____________________________________________________________________  Capítulo 7: Conceptos de propiedades. Variables, fidelidad y fiabilidad  La definición operativa       En las columnas de una matriz de datos se encuentran las variables. Una variable es un  vector de signos que representan los estados de los casos en las propiedades que  interesan. Habitualmente, pero no necesariamente, estos signos son números.       Solo se puede hablar de una matriz de datos si todos los números (y más generalmente,  los signos) que se ven son interpretativos, es decir, son datos.       Para poner información en celdas necesitamos una convención que relacione “algo” con  un número. Esto se llama “plan de codificación”. Por ejemplo, si alguien tiene un título de  estudio, un plan de codificación puede ser: 0 es sin título, 1 con primaria, 2 con secundaria,  3 licenciada, etc.       El plan de codificación es parte de un conjunto de reglas y convenciones que permiten  convenir una propiedad de los objetos o sujetos en la realidad en una variable en la matriz  de datos. Este conjunto se llama “definición operativa” y las partes que lo integran varían  según la naturaleza de la propiedad. La variación más considerable está vinculada al tipo de  unidad de análisis, y por consiguiente al tipo de técnica de recolección.       Si queremos recoger información del título de estudio, la definición operativa incluye  a) El texto de la pregunta relativa (¿Cuál es su título de estudio?)  b) Un plan de codificación como el ya visto  c) El hecho de que este plan sea directamente planteado al entrevistado pidiendo que elija  una respuesta, o solo sea empleado como una lista de voces a las cuales atribuir las  respuestas espontáneas de cada entrevistado a la pregunta relativa.  d) La indicación del vector­columna en que se deben poner las informaciones acerca del  título de cada entrevistado­informaciones que se convirtieron en datos representando cada  una de ellas con el correspondiente número del plan de codificación.  e) Insertar un procedimiento con el que se controlará la sinceridad de las declaraciones de  los entrevistados.       Una definición operativa es el conjunto de todas las operaciones, intelectuales y  materiales, que permitan pasar de estados reales a números que representan esos estados  en la matriz, debemos concluir que, junto con las reglas y convenciones específicas de la  propiedad en cuestión, una definición operativa incluye las reglas y convenciones más  generales y comunes a todas las propiedades que se indaguen en esa investigación  específica y en todas aquellas análogas.  La fidelidad de los datos       Un dato tiene escasa fidelidad si no representa correctamente el correspondiente estado  en la propiedad según las convenciones de la definición operativa. Una causa de esto, por  ejemplo, son declaraciones mentirosas.  Los investigadores saben que los entrevistados tienden a declarar como propias las  opiniones que creen ortodoxas y compartidas por la mayoría, este fenómeno es conocido  como “deseabilidad social”, y es tan difundido que hace poco fiables los resultados de  encuestas sobre opiniones realizadas con preguntas sencillas y directas, ya que es fácil  para el entrevistado imaginar cual sea la respuesta convencional, y por lo tanto, socialmente  deseable.       Además pueden dar involuntariamente informaciones que generan datos no fidedignos.  Por ejemplo que no entiendan bien la pregunta, mala memoria, etc.  16 
  17. 17.      El entrevistado no es la única fuente no fidedigna de un sondeo. El entrevistador, por  ejemplo, puede leer mal alguna pregunta, o alguna respuesta del plan de codificación  pueden influir en las respuestas del entrevistado. Pueden haber faltas en la trascripción de  lo que se dijo por el entrevistado, etc.  Para controlar la fidelidad       Dada que la escasez de fidelidad empeora la calidad y reduce la credibilidad de una  investigación, se debería dedicar mucha más atención al control de la fidelidad.       El más simple es una inspección de las distribuciones de frecuencia de cada variable, o  sea, cuántos datos tiene cada uno de los códigos numéricos posibles en esa variable. Esto  nos permite tomar contacto con los datos que hemos recogido, además, nos permite  descubrir si algunos datos tienen códigos que no estaban previstos en la codificación.       Este análisis de distribuciones se llama “control de códigos locos”.       Otro dato es corroborar si las combinaciones de categorías son social o jurídicamente  imposibles en una sociedad dada. Esto se llama control de coherencia.       Todas las otras formas de control se aplican confrontando los datos con informaciones  que se encuentran fuera de la matriz.  Los coeficientes de fiabilidad: una crítica       Se describe el detalle de su aplicación  a) Para medir la fiabilidad de un test se aplica en una cierto día a una muestra de sujetos  b) Se registran las respuestas a las preguntas y se le atribuye un puntaje a cada respuesta  c) A cada sujeto se le atribuye la suma o el promedio de sus puntajes, y esa cifra, siendo el  resultado global de cada individuo en el test, se pone en un vector­columna  d) Después de algún tiempo se repite la fase a con los mismos sujetos, mismas preguntas.  e) Se repite la atribución de puntaje y se ponen las cifras en otro vector­columna  f) Se calcula el coeficiente de correlación entre ambos vectores  g) Esta cifra es llamada “coeficiente de correlación test­retest”. Se considera una medida de  fiabilidad       Muchos psicólogos han expresado varias críticas a esto  a) En el intervalo de tiempo entre test y retest, el estado de algunos sujetos en la propiedad  investigada puede cambiar, o cambiar la conducta del investigador al aplicar el test b) La  primera suministración puede cambiar artificialmente el estado del sujeto en la propiedad, y  esto en varias formas  a) El sujeto puede recordar las respuesta que dio antes y repetirlas para ser coherente  b) Si el test concierne a cualquier forma de habilidad, la primera suministración puede  actuar como entrenamiento, entonces la prestación de algunos sujetos mejora en el retest.  c) La primera puede acrecentar el interés de algunos sujetos hacia los problemas  investigados y eso los hace investigar, reflexionar, etc.  d) Pueden haber otros efectos como acostumbramiento, desencanto, etc.       Por estos motivos se aconseja señalar el intervalo entre ambos test, lo cual sería  determinante si ambos resultados cambian.       Una solución fue la de realizar dos tests sobre el mismo tema, con las mismas preguntas  o pruebas, formuladas de manera análoga, que se bautizaban como “paralelos”. Los dos  vectores deseados se producían sumando ambos puntajes. SI la correlación resultaba alta,  eso confirmaba el supuesto de equivalencia de los dos tests y simultáneamente la fiabilidad  de uno con el otro.  17 
  18. 18.      Se propuso otra técnica más sencilla: hace un solo test y luego crear los dos vectores  deseados simplemente sumando por separado los puntajes conseguidos por un sujeto en  las preguntas que tienen un número par en la secuencia del test y en los que tienen un  número impar. El coeficiente de correlación así producido fue bautizado “subdivisión a la  mitad”       Quien tiene experiencia con los sujetos investigados sabe que muchos tienden a acordar  con las respuestas sin reflexionar sobre ellas, por prisa o por malentendido, o solo por  quitarse un peso de encima. Esto se conoce como “respuesta self”.       Un progreso técnico se produjo a finales de los 30 que se propuso el “coeficiente alfa”  aplicable a toda batería.       Un punto a destacar es que la línea de herramientas para controlar la fiabilidad está  vinculada a los test en sus laboratorios, es decir, baterías de preguntas o pruebas de  formato igual. No es aplicable a ninguna de las otras herramientas que se usan en un  sondeo.      Además, asignar un coeficiente de fiabilidad de un test como si fuera un atributo  permanente lleva a una falla de conceptos y además roza un problema de generalizabilidad.       No es bueno generalizar a todas las poblaciones en todos los tiempos y situaciones.  Esto parece obvio, pero la realidad es que los coeficientes de fiabilidad encontrados en un  grupo son transferidos a todos los otros grupos sin cuestionamiento.       La generalización es ilegítima, incluso entre el mismo grupo de sujetos a los que se le  aplica el test para calcular su coeficiente de fiabilidad:  a) Cada sujeto tiene una manera particular de reaccionar ante las preguntas  b) Cada pregunta o prueba tiene su particular nivel de inteligencia, agrado y aceptabilidad  c) La reacción de cada sujeto no es estable, puede variar con cada situación  Reducir todo esto a un coeficiente universal y definitivo es incorrecto. Los controles se  siguen volviendo más técnicos con los años y más alejados de la realidad.  ¿Las definiciones operativas registran o manipulan opiniones y actitudes?       Hemos visto que limitándose al análisis de datos de la matriz y olvidando mirar afuera, se  pueden lograr coeficientes de fiabilidad tranquilizadores que, sin embargo, no tienen  ninguna relación con las situaciones reales.       Esta manera de proceder no es problema de la matriz, sino de quienes la usan. La matriz  es un instrumento neutro, que se puede usar para descubrir indicaciones significativas  sobre situaciones reales.    ____________________________________________________________________    Capítulo 8: clasificación, conteo, medición, construcción de escalas. Marradi       Algunas propiedades, sean de objetos o de personas, tienen un número finito de  estados, claramente distintos y distinguibles uno del otro, en una palabra, son discretos.  Discretas se le llaman a las propiedades que tienen estos estados discretos. Las  propiedades que tienen un número infinito de estados son llamadas “continuas”.       La distinción entre discreto y continuo es lo más importante al momento de recolectar  información y transformarla en datos por medio de una definición operativa.       Las discretas se dividen en tres clases según el tipo de relación que hay entre sus  estados.  ● Categoriales: si los estados son solo diferentes, pero no hay ningún tipo de relación  cuantitativa entre ellos.  18 
  19. 19. ● Ordinales: si los estados tienen relaciones ordinales (de mayor y menor) se pueden  ordenar a lo largo de una escala.  ● Cardinales: si tienen relaciones cardinales, en el sentido de que se puede  legítimamente establecer un cociente entre ellos.        Las continuas se dividen en dos clases:  ● Mensurables: si sus estados se pueden registrar sin intervención activa del individuo  cuyo estado se está registrando  ● Continuas no mensurables: si la intervención debe ser activa  Propiedades y variables categoriales       En la realidad hay una gran variedad de estados en las propiedades, se debe decidir qué  estados se convertirán en categorías de la variable que va a representar la propiedad de la  matriz. Se necesitará intervención de expertos para resolver estas situaciones, inclusive  cuando la transformación de estados en categorías parece simple y automática.       Las operaciones de creación y/o delimitación de categorías se realizan siguiendo los  principios de una operación intelectual (la clasificación). Esta operación se puede llevar a  cabo en abstracto, considerando las diversas formas que puede tomar un objeto o evento  (por ejemplo, los múltiples estados que puede concebir una propiedad).       El criterio que se sigue para dividir la intensión de un concepto o para agrupar  ejemplares tiene el nombre de “fundamentum divisionis”. Un ejemplo es dividir un grupo por  el color del pelo (morocho, rubio, etc).      Si se adoptan 2 o más criterios (morochos hombres o mujeres, rubios hombres o  mujeres) la operación se llama “tipología”.       Lo importante es que las categorías sean mutuamente excluyentes. Este requisito de la  mutua exclusividad vale tanto para tipologías como para clasificaciones.       Otro requisito de la clasificación es la exhaustividad de las categorías: todos los estados  posibles deben estar asignados a una categoría. Como esto no es posible, muchas veces  se prevé la categoría “otro” donde finalizan todos los estados no previstos. Que nada tiene  que ver con una categoría de “no contesta” o “no sabe”.       Una cuota muy alta de “no sabe” puede significar que algunos temas no interesan, o que  han sido formuladas con un lenguaje lejano al del entrevistado. Una cuota demasiado alta  de “no contesta” puede significar que algunas preguntas tocan temas delicados o privados.  Una cuota muy alta de “otro” significa que la clasificación puede haber sido realizada de  manera superficial.       Estas faltas ocurren en muchos sondeos, y se podrían evitar con una prueba “piloto”, es  decir, sometiendo preliminarmente el cuestionario a algunos miembros de la población a  examinar. Reflexionando sobre estos resultados, se pueden obtener mejoras. Estas  pruebas piloto a veces se ejecutan solo como “ritual” y antes del sondeo, donde no hay  tiempo para analizar nada.       Otro problema es la división de fundamentum divisionis, o sea, la forma en que se  establecen las categorías (que debe ser relevante para nuestros intereses). Se aconseja  siempre el máximo detalle cada vez que las informaciones sean recogidas sin interacción  oral con un sujeto. Un detalle mucho menor (pocas categorías y claramente distintas) si el  sujeto tiene que escuchar las alternativas y elegir una sin poder apoyarse en un texto  escrito. SI la entrevista es telefónica, se aconseja limitarse a dicotomías (si/no) o a  propiedades sencillas.  19 
  20. 20. Cuando se establecen categorías, se asigna un código, y con esto se cumple el paso más  importante en la transformación de la propiedad categorial en una variable categorial. Aquí  hay que evitar el problema de algunos traten estos aparentes números de las categorías en  sentido estricto y los analicen.       Sea cual sea (numérico o no) el código que se le asigna, cuando tenga un código y este  siendo analizado con técnicas estadísticas, una categoría cambia de nombre y se llama  “modalidad”. Con la expresión “frecuencia de una modalidad” se entiende el número de  datos a los cuales se atribuyó aquella modalidad. La modalidad con la frecuencia más alta  se llama “moda” (o modo) y esto en todos los tipos de variables.       El primer paso de análisis de una variable categorial es la producción de su distribución  de frecuencia, es decir, una tabla que tiene habitualmente tres columnas: código, nombre de  la categoría/modalidad, frecuencia (absoluta) y en la última el porcentaje correspondiente  (frecuencia relativa).       La inspección visual de sus distribuciones de frecuencia es la forma preliminar de  análisis de variables categoriales. Ella permite tomar contacto con los datos recolectados.  Puede señalar la presencia de errores en la codificación, si en la distribución aparecen  códigos que no se habían visto previstos en nuestro plan. Ella señala también el  desequilibrio en las frecuencias (modalidades con un número demasiado alto o bajo), que  pueden también indicar errores en la codificación y que de todas formas provocan  problemas en algunos tipos de análisis estadísticos.       Una vez realizado este paso preliminar, una variable categorial está casi lista para ser  puesta en relación con otras variables categoriales u ordinales mediante una tabla  bivariable, o con variables cardinales mediante el análisis de la varianza. Se dijo “casi lista”  porque si se quiere investigar de manera eficiente las relaciones de las variables  categoriales con otras variables, hay que someter casi todas a una especie de “maquillaje”  que constituye una verdadera fase intermedia entre recolección y análisis. Esta es una fase  descuidada generalmente.       Cuando se quieren analizar las relaciones de una variable categorial con otra variable,  cabe decir que el mismo nivel de detalle que es positivo en la recolección y análisis  univariado (detalle y sensibilidad), se convierte en negativo. El grado de negatividad  depende de la otra variable con la cual establecemos relación: si es un cardinal, el problema  no es grave, si es un ordinal, este resulta mayor, pero aún no tan grave; si es un categorial,  un alto nivel de detalles (muchas categorías) puede producir dificultades importantes. Esto  es porque la herramienta con la que se analizan las relaciones entre dos variables, la tabla  bivariable, el número de las celdas equivale al producto de las modalidades de las dos  variables que forman la tabla. Con dos variables de diez modalidades, el número es cien,  etc. Esto crea dos problemas, uno numérico y otro semántico.       Supongamos una matriz con algunas combinaciones de datos, siempre alguna es más  frecuente que otra, siempre estando algunas celdas vacías y otras no. De celdas vacías o  casi vacías no se pueden sacar conclusiones, o sea, una matriz vacía o semi vacía no sirve  para mucho análisis.       Para hablar del problema numérico, es necesario hablar del concepto de autonomía  semántica. Una categoría tiene plena autonomía semántica si puede ser interpretada sin  hacer referencia al significado de la propiedad o de las otras categorías. Por su naturaleza,  las categorías de las variables categoriales tienen plena autonomía semántica. Lo que  20 
  21. 21. significa que cada combinación de las categorías de dos variables categoriales tiene su  sentido y necesita atención y concentración para enfocar su pleno significado.       El investigador experto prefiere enfocar su atención en pocas tablas elegidas con  cuidado y hacerlas manejables, reduciendo al mínimo las celdas vacías o casi vacías, de  manera de poder aprehender todo lo que indica la tabla en un tiempo razonable. Para lograr  este objetivo habrá que reducir el número de las categorías en ambas variables.       Esta operación se puede llevar a cabo de forma correcta y eficaz si se siguen dos  criterios: uno medular es la proximidad semántica entre las categorías que se desea unir;  otro criterio es el equilibrio entre las frecuencias en las distintas modalidades. El metodólogo  experto trata de evitar la presencia de modalidades, y por lo tanto celdas, con frecuencia  demasiado altas o bajas, ya que ambas perjudican la interpretabilidad de una tabla.       Las consecuencias de graves desequilibrios son conocidas: categorías con baja  frecuencia producen inevitablemente celdas vacías o casi vacías, dando conclusiones no  confiables. A veces para dar una distribución más equilibrada no basta agrupar categorías  semánticamente parecidas y con escasa frecuencia, se debería también disgregar una  categoría que resultó tener un porcentaje excesivo.  Propiedades y variables ordinales       Son ordinales las propiedades en las que se pueden ordenar todos los estados a lo largo  de una escala según un criterio semánticamente vinculado a la naturaleza de la propiedad,  de forma que hay un estado mayor que otros, uno menor, etc. El tratamiento de las  propiedades ordinales tiene mucho en común con el tratamiento de las propiedades  categoriales  1. Se adopta un fundamentum divisionis adecuado a nuestros intereses cognoscitivos  2. Si los estados son muchos, se debe decidir cuáles se convertirán en categorías de la  variable que va a representar la propiedad en la matriz  3. Las categorías se crean y/o delimitan siguiendo los principios de la clasificación.  4. Se establecen límites entre las categorías de modo que sea mutuamente exclusivas  5. Se procura que el complejo de las categorías sea exhaustivo       En este caso, los estados están ordenados en la realidad, o se puede imaginar un  criterio intersubjetivo para ordenarlos. La serie de códigos debe tener una relación  monotónica directa con el orden de los estados en la realidad: al crecer la posición ordinal  del estado, hay que acrecentar también el código numérico asignado a la modalidad  correspondiente.       El problema de unir categorías semánticamente parecidas con otras variables, pierde su  importancia. Y eso no solo porque las categorías de una propiedad ordinal habitualmente no  son muchas, sino también porque ellas pierden parte de su autonomía semántica, en cuanto  al interés semántico pasa de las categorías individualmente consideradas al orden de las  categorías. Por lo tanto, en una tabla bivariable que incluye una o dos variables ordinales se  tiende a mirar la tendencia global más que las celdas singulares.       Una importante consecuencia directa de la reducción de autonomía semántica por parte  de las categorías ordenadas es que en las tablas que presentan la distribución de los  porcentajes relativos a cada modalidad singular deben ser reemplazados, o acompañados,  por porcentajes acumulados, lo cual se calcula teniendo en cuenta no solo la frecuencia de  aquella modalidad sino también las frecuencias de las modalidades que la preceden en el  orden. A veces puede ser útil presentar porcentajes retro acumulados, que suman la  frecuencia de aquella modalidad con los de las modalidades que siguen en el orden.  21 
  22. 22.      Una ventaja del recurso a distribuciones de porcentajes acumulados es que esto permite  detectar inmediatamente la categoría mediana de una distribución. En una secuencia de  cifras, la mediana es la cifra que divide la serie en dos partes iguales.  Propiedades discretas cardinales y variables cardinales naturales       La expresión “variable continua” es una contradictio en adieto (el adjetivo contradice al  sustantivo), así como la expresión “variable discreta” es redundante. Ya que una variable  cardinal también se deriva de una propiedad continua mensurable a través de medición,  para distinguir las cardinales que se originan a partir de una propiedad discreta se agrega el  adjetivo “naturales”, en el sentido de que en estas variables ya sea el punto cero (ausencia  de la propiedad) ya se la unidad de cómputo (el número 1) son naturales y no radican en  una decisión del investigador o de la comunidad científica.       Eso no quita que en la fase de análisis, la diferencia entre variables cardinales y  variables cardinales métricas (las que derivan de una medición) pierda toda su importancia,  y se puede hablar de variables cardinales sin más.  Como se decía acerca de las variables categoriales, el criterio que rige la recolección de  informaciones no es para nada el mismo que rige la presentación de los datos y su análisis.  En el caso de las variables categoriales, la razón principal para agrupar categorías se  presenta en la fase de análisis, y radica en la necesidad de reducir el número de celdas en  las tablas cuando se analicen sus relaciones con otras categorías y ordinales, pero la  posibilidad de reagrupamiento tiene un límite en el hecho de que cada categoría tiene plena  autonomía semántica, y por lo tanto solo se pueden agrupar categorías semánticamente  parecidas.       En el caso de las variables cardinales, la razón para agrupar categorías cuando se  presentan los datos es otra y concierne únicamente a ésta fase.  Se agrupa categorías en clases de amplitud variable conforme a los objetivos de la  investigación. Obviamente, se agrupan las categorías numéricamente más cercanas.       Al agruparse categorías no hay otro problema que plantearse más que el número: la  proximidad semántica no es un problema porque las categorías de una variable cardinal  tienen una autonomía semántica muy reducida, que va poco más allá del aspecto  meramente numérico. Por otro lado, esta escasa autonomía semántica no se puede  descuidar.       En término metodológicos, esto significa que en muchas propiedades discretas  cardinales, las categorías más cercanas al cero tienen una mayor autonomía semántica que  otras. Como consecuencia, las clases iniciales de las variables cardinales tienen  habitualmente una amplitud reducida.       Ya que las modalidades de las variables cardinales son números en sentido estricto, se  las puede someter a todas las operaciones matemáticas.       De una variable cardinal no interesa solo un promedio, sino también su variabilidad, que  habitualmente se representa mediante la dispersión de sus datos respecto a este promedio.  Dado que los códigos de una variable cardinal son números, no hay dificultad para calcular  un valor que sintetice la dispersión de sus datos en una muestra o en una población, donde,  de forma sencilla, podemos calcular una desviación de X respecto a un promedio. Esa  desviación podrá ser positiva o negativa.       A partir de una serie de cálculos obtenemos cuatro valores característicos: devianza,  varianza, desviación típica y coeficiente de variación, los cuales son valores globales, en el  sentido que se refieren a distribuciones enteras y no a casos singulares. El procedimiento  22 
  23. 23. que permite saberlo se llama estandarización. La estandarización sirve también para  construir índices aditivos que sumen variables cardinales con una extensión de escala  diferente.  Propiedades mensurables y variables cardinales métricas.       Las propiedades llamadas continuas tienen un número infinito de estados  imperceptiblemente diferentes el uno del otro. La mayoría de estas propiedades pertenecen  al mundo físico. Otras propiedades continuas pertenecen al mundo psíquico (como puede  ser una opinión), estas propiedades psíquicas no se pueden medir, no tenemos estados en  estas propiedades. Aquí ocurre un problema de inferencia en realidad, entre lo que se ve o  se escucha, y los estados reales, inclusive, dando un problema grande de fidelidad porque  la información se obtiene a partir de una declaración donde el entrevistado dice lo que tiene  ganas       La propiedad debe ser continua siempre, si no lo es, no se mide: se clasifica o se cuenta.  Es lo que ocurre cuando hace una entrevista un sociólogo, el no puede garantizar la  respuesta, ni demostrarlo. Además, con anterioridad debe haber sido establecida y  reconocida una unidad de medida.       Una tercera condición necesaria para la medición es la ejecución de un cotejo entre la  unidad de medida y el estado en la propiedad que se está midiendo. Cuando se miden  propiedades de objetos inanimados o de ser humanos a las que se tiene acceso desde el  exterior, este cotejo lo hace el que mide. Pero cuando este acceso directo no se puede  lograr, el investigador puede recorrer tres caminos:  a) Observar conductas e inferir su estado  b) Solicitar al sujeto, con preguntas o pruebas que declare algo que permita hacer la  comparación requerida, con un proceso puramente inferencial  c) Solicitar, con preguntas o pruebas, que el sujeto coopere haciendo el mismo la  comparación       Descuidando todos estos puntos, muchos investigadores usan libremente los términos  medir, medida, medición, etc., para cualquier procedimiento de registro de estados. Este  abuso no tiene otro propósito que le anhelo de legitimación científica.       Algo que no se puede considerar una condición de medición, pero que nunca falta, es el  criterio para redondear.  Propiedades continuas no mensurables y variables ordinales o cuasi cardinales       Los psicólogos comenzaron a plantearse el problema de medir ciertas propiedades  (como las actitudes) donde Rensis Likert introdujo las siguientes simplificaciones:  1. Se propuso dividir el continuum en un número pequeño de intervalos, marcados por siete,  y después por cinco fases.  2. Se renunció a declarar iguales estos estados, limitándose a garantizar el orden de las  frases que los dividían  3. Para garantizar que todos los sujetos compartan este orden, redujo drásticamente la  autonomía semántica de lo que se ubicaba en el continuum como un mojón: en lugar de  plantear frases con pleno sentido esperando que los sujetos las ubiquen en el continuum,  siguió planteando frases, pero pidiendo a los sujetos reaccionar frente a cada frase con uno  de varios grados diferentes de (desaprobación (apruebo plenamente, apruebo parcialmente,  indeciso, desapruebo parcialmente, desapruebo totalmente). La técnica ubica en el  continuum estas cortas expresiones, que tienen una autonomía semántica tan reducida que  cualquier sujeto no puede más que compartir su orden.  23 
  24. 24.      En su versión simplificada la “escala de Likert”, simple y rápida, es la técnica de registro  de opiniones más conocida y usada. Se le hacen varias observaciones.       La primera observación es que reintroduce por la ventana la misma cardinalidad que  declara haber echado por la puerta; lo hace desde el título (valoraciones sumadas). Las  valoraciones que se suman son los números naturales que se atribuyen a los 5 niveles de  desacuerdo (o acuerdo) y que se suman para asignarle a cada sujeto un puntaje total en la  escala, que expresa su supuesto estado en la propiedad que se intenta medir.       Un segundo problema que presenta es el hecho de que una afirmación puede ser  desaprobada por motivos opuestos. Lo que conlleva a que se asigne los mismos puntajes a  opiniones ubicadas en posiciones muy diferentes a lo largo del continuum. Esto se conoce  como “curvilinealidad”, porque asignar la misma puntuacion a respuestas que tienen  motivos opuestos equivale a doblar el continuum transformándolo en una herradura.       Menos conocido es otro fenómeno que puede distorsionar las reacciones: se descubrió  que un entrevistado no reacciona al sentido de la oración entera, sino a un solo término,  más precisamente, al objeto/sujeto designado por este término. Esto fue bautizado como  “reacción al objeto”.       El hecho de que las frases sean organizadas en baterías, si bien acrecienta la rapidez,  por otro reduce la fidelidad de los datos producidos. Esto es porque una vez aprendido el  fácil esquema según el cual deben contestar, tienden a considerar todas las frases  restantes como una única afirmación, que aprueban sin más, por eso podríamos encontrar  columnas enteras con la misma respuesta marcada. Esto se conoce como los “response  set” (conjunto de respuestas). Se pueden identificar cuatro motivos  1. El alto número de frases que componen cada batería, y el hecho de que en un  cuestionario se encuentran muchas baterías, haciendo que se someta al mismo  entrevistado a centeneras de frases con un mismo esquema de respuesta prefabricada.  2. Muchos investigadores no se dan cuenta de que a menudo los acervos de conocimiento y  las esferas de intereses de los entrevistados no coinciden con los suyos. La consecuencia  es que muchos entrevistados, no teniendo conocimiento sobre los temas que se presentan,  aprueban cualquier oración porque esto es lo que los compromete menos.  3. En muchos casos el entrevistador se presenta como enviado por un instituto, por lo tanto  los entrevistados no desdicen y contradicen nada de esos cuestionarios para no contradecir  la sabiduría académica  4. Algunos entrevistados proporcionan su contribución a hacer los response sets.  Generalmente los entrevistados son personas mal pagadas, se les entrena poco, y tienen  que hacer mucho en poco tiempo. Esto baja la calidad de los cuestionarios.       El mismo Likert sugiere que la manera de evitar los response sets es mezclar en la  misma batería afirmaciones de orientación opuestas, de forma que el entrevistado no pueda  declararse razonablemente de acuerdo con todas. Igual, para que esto funcione, los  entrevistadores deben ser entrenados para actuar apenas el fenómeno del response set se  manifieste, llamando la atención del entrevistado avisándole que dos cosas que ha  contestado se contradicen.       Un remedio para los response sets es, en vez de pedir a los entrevistados (des)aprobar  frases individuales, pedirles elegir entre dos frases de orientación opuestas y planteadas  juntas, una frente a la otra. De esta forma es forzado a abandonar su condición pasiva y  reflexionar sobre el significado de ambas frases. Esto se llama elección forzada.  24 

×