jueves, 18 de noviembre de 2021

ANÁLISIS E INTERPRETACIÓN DE DATOS: LA TRIANGULACIÓN


La triangulación es una técnica de análisis de datos que se centra en el contrastar visiones o enfoques a partir de los datos recolectados. Por medio de esta se mezclan los métodos empleados para estudiar el fenómeno, bien sea aquellos de orientación cuantitativa o cualitativa.


Su propósito o finalidad es la contraposición de varios datos y métodos que están centrados en un mismo problema, así se pueden establecer comparaciones, tomar las impresiones de diversos grupos, en distintos contextos y temporalidades, evaluando así el problema con amplitud, diversidad, imparcialidad y objetividad.

Al respecto, Ruth y Finol (2009) en su artículo de investigación titulado: La Triangulación como Procedimiento de Análisis para Investigaciones Educativas destacan lo siguiente:

La triangulación en la investigación social presenta muchas ventajas porque el utilizar diferentes métodos, éstos actúan como filtros a través de los cuales se capta la realidad de modo selectivo. Por ello conviene recoger los datos del evento con métodos diferentes: si los métodos difieren el uno del otro, de esta manera proporcionarán al investigador un mayor grado de confianza, minimizando la subjetividad que pudiera existir en cualquier acto de intervención humana (s.p).



TIPOS DE TRIANGULACIONES Y SUS DEFINICIONES:

La triangulación de datos: Los autores al referirse a este tipo de triangulación plantean el cruce de diversas estrategias empleadas para recolectar datos. “Su objetivo es verificar las tendencias detectadas en un determinado grupo de observaciones. La confrontación de los datos puede estar basada en criterios espacio-temporales y niveles de análisis” agregan.

Con relación a los criterios espacio-temporal, lo espacial se refiere a que el estudio no se centra en poblaciones ubicadas en un mismo lugar que remitan a la misma cultura, sino en la variabilidad de trabajar con sujetos de diferentes zonas y la temporalidad tiene que ver con el estudio del fenómenos en diferentes momentos.

Por su parte, Leal (2005) en el libro titulado La Autonomía del Sujeto Investigador y la Metodología de Investigación, se refiere a este tipo de triangulación de este modo:

La denomina de métodos y técnicas y expone que tiene que ver con el uso múltiple de métodos para estudiar un problema específico. “Por ejemplo cuando se emplea la técnica de la entrevista como proceso inicial de recolección de información para luego ser contrastado con la observación participante y/o la discusión grupal”, Leal (2005), Pág.117

La triangulación de persona: Se trata de un tipo de oposición de datos provenientes de sujetos de diversas naturalezas de agrupación, por ejemplo, ella en sí misma, un grupo familiar, una comunidad, una pareja… Continúan Ruth y Finol (2009) al señalar:

el investigador puede recolectar los datos de individuos, parejas o grupos, o cada uno de los tres tipos. La recolección de datos de una fuente se usa para validar los datos de las otras fuentes o una sola. Cada nivel de datos es usado para validar los hallazgos del otro nivel

Triangulación de investigadores: Al igual que la triangulación de personas, la de investigadores se trata de sujetos especializados en el análisis de un fenómeno. Este grupo puede presentar diferencias en su composición y su forma de relacionarse con el objeto de estudio, porque sus años de formación y tipo de formación no tienen por qué ser las mismas. Agrega Leal (2005) “basados en el principio de la complementariedad se permiten comparar o triangular los resultados de investigaciones cualitativas y cuantitativas para tener una visión más aproximada de la realidad” Leal (2005), Pág.117-118

Por último, apunta este autor que cada triangulación tiene un proceso estructural, es decir, una suerte de esquema para su desarrollo que en cada uno de los casos se da gracias a otro punto importante como lo son las categorías, las cuales se originan de los datos, caracterizan el fenómeno de estudio y guían estas oposiciones o contrastaciones.

Triangulación metodológica

Al utilizar en la triangulación diferentes métodos se busca analizar un mismo fenómeno a través de diversos acercamientos. Aunque generalmente se utilizan distintas técnicas cualitativas, se pueden utilizar tanto cuantitativos como cualitativas en conjunto. Algunos autores recalcan que esto presenta mayores dificultades durante el proceso de análisis de datos, ya que por las características propias de las investigaciones cualitativa y cuantitativa las preguntas de investigación que éstas responden pueden tener diversos grados de incompatibilidad que hacen que la convergencia de los hallazgos sea más difícil de definir. Por esto es entendible que la combinación de métodos cuantitativos y cualitativos ofrece la visión de los diferentes aspectos de la totalidad del fenómeno, más que la repetibilidad de los hallazgos de la observación.

El arte de este tipo de triangulación consiste en dilucidar las diferentes partes complementarias de la totalidad del fenómeno y analizar por qué los distintos métodos arrojan diferentes resultados. Para citar un ejemplo, en Historias de mujeres filicidas inimputables por enfermedad mental, del Ministerio de la Protección Social de Colombia, un estudio cualitativo realizado por De la Espriella, el autor utiliza diferentes métodos para intentar determinar una tipología para este grupo de mujeres, y con el fin de verificar datos que por la dificultad del tema podrían ser susceptibles de sesgos de información. En el estudio se realizan entrevistas (grabadas y posteriormente digitadas), se revisan datos del registro de historia clínica (confrontando datos de la historia personal), se hace un genograma de cada una de las mujeres del estudio y, además, se hacen pruebas psicológicas (método cuantitativo). Todos estos métodos ayudan a visualizar de una manera más amplia el grupo de mujeres en estudio, cosa que se habría visto limitada de haber usado sólo un método.

En este caso, las entrevistas a las mujeres ofrecen al estudio información acerca de sus creencias, mientras que la revisión de la historia personal, consignada en la historia clínica, puede arrojar, entre otras cosas, datos sobre la enfermedad mental que pueden haber sido omitidos durante los interrogatorios; por otra parte, el uso de las pruebas psicométricas aporta un análisis de los rasgos de personalidad de dichas mujeres, en tanto que el genograma presenta algunas de sus características como la conformación familiar. La utilización de estos diferentes métodos ayuda a definir las características comunes en estas mujeres y a dilucidar patrones, uno de los objetivos del estudio. Adicionalmente, la utilización de diversos métodos llevó a la profundización y mayor comprensión del fenómeno en estudio.



Triangulación de datos

Para realizar la triangulación de datos es necesario que los métodos utilizados durante la observación o interpretación del fenómeno sean de corte cualitativo para que éstos sean equiparables. Esta triangulación consiste en la verificación y comparación de la información obtenida en diferentes momentos mediante los diferentes métodos. Como ya se había explicado antes, la inconsistencia en los hallazgos no disminuye la credibilidad de las interpretaciones y, en este caso en particular, el análisis de las razones por las que los datos difieren sirve para analizar el papel de la fuente que produjo los datos en el fenómeno observado y las características que la acompañaban en el momento en el que el fenómeno se observó.

En un estudio inglés que buscaba ampliar el conocimiento sobre cómo el ambiente de las cárceles afecta la salud mental se utilizaron grupos focales dirigidos al personal de la cárcel y a sus reclusos para obtener información. Así se trianguló la información recolectada de dichos grupos, en los que participa el personal con respecto a la visión de la salud de los prisioneros con los datos recogidos de estos últimos para determinar la concepción que se tenía al respecto. Según los autores del estudio, esto produjo un balance en la información, necesario para poder conseguir una perspectiva representativa de este aspecto. Asimismo, sirvió para reproducir algunos aspectos de los datos. En este mismo estudio se pudo haber obtenido datos de ex presidiarios, quienes por su condición hubieran tenido la posibilidad de aportar otros datos al estudio.

Triangulación de investigadores

En la triangulación de investigadores la observación o análisis del fenómeno es llevado a cabo por diferentes personas. Para dar mayor fortaleza a los hallazgos suelen utilizarse personas provenientes de diferentes disciplinas. Así, por ejemplo, se puede hacer un estudio donde se tome en cuenta la observación por parte de un antropólogo, de un psicólogo, de un psiquiatra, de familiares de pacientes, de un terapista ocupacional, etc. De esta manera se reducen los sesgos de utilizar un único investigador en la recolección y análisis de datos y se les agrega consistencia a los hallazgos. También se pueden realizar análisis de datos de manera independiente por cada uno de los investigadores y, posteriormente, someter estos análisis a comparación. Al final, los hallazgos reportados en el estudio serán producto del consenso de los analistas o investigadores.

Aunque pueda parecer que el uso de investigadores o de observadores externos da una mayor validez a los hallazgos, su papel puede llegar a ser superficial, ya que éstos, al estar por fuera del fenómeno estudiado, pueden no aportar una verdadera visión de lo que se está analizando. En el estudio sobre la salud mental en las cárceles del que se habló con anterioridad, el moderador, el observador y algunos de los participantes de los grupos focales participaron mediante la retroalimentación y el análisis de los contenidos de las sesiones.

Triangulación de teorías

Durante la conceptualización del trabajo de investigación cualitativa suele definirse de antemano la teoría con la cual se analizarán e interpretarán los hallazgos. En este tipo de triangulación se establecen diferentes teorías para observar un fenómeno con el fin de producir un entendimiento de cómo diferentes suposiciones y premisas afectan los hallazgos e interpretaciones de un mismo grupo de datos o información. Las diferentes perspectivas se utilizan para analizar la misma información y, por ende, poder confrontar teorías. Ejemplo de ello podría ser el análisis que se realiza en algunos estudios acerca de violencia. En uno de ellos se estudió la aplicación de la mediación en el conflicto armado colombiano y para ello se obtuvo la opinión de diversos expertos de diferentes ramas del saber (abogados, politólogos, economistas, negociadores, etc.), a quienes se les presentó la misma información, la cual fue analizada e interpretada por cada uno de ellos, de acuerdo con su bagaje teórico.

Por otra parte, se ha postulado la triangulación ambiental, definida como el uso de localidades, de sitios u horarios o de momentos diversos (durante el día o en algunas épocas del año), con el fin de evaluar si el tiempo y lugar influyen sobre los datos que obtengo. En el supuesto, para algún tipo de preguntas, de que la validez tendería a aumentar en la medida en que los resultados de diversas localidades fueran similares o que en diferentes épocas del año en la misma localidad se reproduzcan.

Por último, se ha propuesto la utilización de triangulación con multi métodos, esto es, el uso de diversas formas de triangulación antes explicadas con el fin de incrementar la confiabilidad de los resultados para revisar, disminuir sesgos y obtener mayor validez.

Referencias Bibliográficas :

1. Mays N, Pope C. Qualitative research in health care: assessing quality in qualitative research. BMJ. 2000;320:50-2.      

2. Sandoval C. Módulo cuatro: investigación cualitativa. Programa de Especialización en Teoría, Métodos y Técnicas de Investigación Social. ARFO; 2002.        

3. Patton M. Qualitative research and evaluation methods. 3rd ed. Thousand Oaks: Sage; 2002.       

4. Giacomini M, Cook D. Users guides to the medical literature: XXIII. Qualitative research in health care A. Are the Results of the study valid? JAMA. 2000 Jul;284:357-62.       

5. Denzin N, Lincoln Y, editors. Handbook of qualitative research. 2nd ed. Thousand Oaks: Sage Publications; 2000.       

6. De la Espriella R. Historias de mujeres filicidas inimputables por enfermedad mental del programa de inimputables del Ministerio de la Protección Social de Colombia. Tesis de Maestría en Epidemiología Clínica. Bogotá; 2004.        

7. Nurse J, Woodcock P, Ormsby J. Influence of environmental factors on mental health within prisons: focus group study. BMJ. 2003;327:480.        

8. Padilla A. Opinión y conocimiento acerca de la mediación en el proceso de paz del período de Andrés Pastrana. Tesis de Grado en Mediación. IUKB. Suiza; 2003.      

9. Barbour R. Checklists for improving rigour in qualitative research: a case of the tail wagging the dog? BMJ. 2001;322;1115-7.      

10. Pope C, Ziebland S, Mays N. Qualitative research in health care: analysing qualitative data. BMJ. 2000;320:114-6.        

11. Mays N, Pope C, editors. Qualitative research in health care. London: BMJ Publishing Group; 1996.    

PROCESAMIENTO, SISTEMATIZACIÓN Y PRESENTACIÓN DE RESULTADOS CUANTITATIVOS Y CUALITATIVOS

 

El procesamiento de los datos se refiere a todo el proceso que sigue un investigador desde la recolección de datos, hasta la presentación de estos en forma resumida. En este proceso cuenta sobre todo, la habilidad del ser humano para capturar los datos y procesarlos de acuerdo a algún parámetro estadístico.




A diferencia de los estudios cuantitativos, en la investigación cualitativa se recauda un volumen grande de información de carácter textual, producto de las entrevistas a los informantes, las notas de campo y el material audiovisual o grafico que se obtiene en el trabajo de campo.
El análisis en los estudios cualitativos consiste en la realización de las operaciones a las que el investigador  someterá los datos con la finalidad de alcanzar los objetivos propuestos en el estudio.



De forma general, el procesamiento y análisis de datos consiste en la recolección de datos en bruto para transformarlos en información entendible como gráficas, tablas, documentos, etc. Entonces, dicha información pasa de la computadora a manos de los empleados que la usarán según sus necesidades.´


La interpretación de datos es un proceso consistente en la inspección, limpieza y transformación de datos, con el fin de extraer información de utilidad para derivar en unas conclusiones concretas que permitan esclarecer la toma de decisiones.

 

LOS 3 PRINCIPALES TIPOS DE TÉCNICAS DE PROCESAMIENTO Y ANÁLISIS DE DATOS

La elección del tipo de técnicas de procesamiento y análisis de datos influirá decisivamente en el resultado. Potencia y escalabilidad son características que deben ser tenidas en cuenta de la misma forma que las capacidades del sistema para recoger los valores atípicos, detectar la existencia de fraudes en las transacciones o llevar a cabo controles de seguridad.

La tarea más difícil, sin embargo, es la de lograr disminuir la latencia de la analítica que se practica sobre un conjunto completo de grandes datos, algo que requiere el procesar terabytes de datos en cuestión de segundos.

PROCESAMIENTO BATCH: para lotes de grandes volúmenes de datos

Apache Hadoop es un marco de computación distribuida el modelo de Google MapReduce para procesar grandes cantidades de datos en paralelo. Hadoop Distributed File System (HDFS) es el sistema de archivos subyacente de un cluster Hadoop y funciona de manera más eficiente con un número reducido de archivos big data de gran volumen, que con una cantidad superior de archivos de datos más pequeños.

Un trabajo en el mundo Hadoop suele durar de minutos a horas para completarse, por lo tanto, podría afirmarse que la opción Hadoop no es la más indicada cuando el negocio tenga la necesidad de llevar a cabo un análisis en tiempo real, sino más bien en los casos en que sea posible conformarse con una analítica offline.

Recientemente, Hadoop ha evolucionado para adaptarse a las nuevas necesidades empresariales. Los negocios hoy día demandan:

Menores latencias.

Minimización del tiempo de respuesta.

Precisión máxima en la elaboración de decisiones.

Hadoop se ha renovado mejorando su capacidad de gestión gracias a una novedad que se conoce como stream. Uno de los principales objetivos de Hadoop streaming es desacoplar Hadoop MapReduce del paradigma para dar cabida a otros modelos de computación en paralelo, como MPI (Message Passing Interface) y Spark. Con las novedades de la aplicación de técnicas de procesamiento y análisis de datos en streaming se superan muchas de las limitaciones del modelo batch que, si bien puede considerarse demasiado rígido para determinadas funciones, algo que no es de extrañar si se tiene en cuenta que sus orígenes datan de hace más de cuatro décadas; todavía es el más indicado, por la relación coste - resultados, para operaciones como:

El cálculo del valor de mercado de los activos, que no necesita revisarse más de una vez al día.

Cálculo mensual del coste de las facturas de teléfono de los empleados.

Generación de informes relacionados con temas fiscales.

PROCESAMIENTO EN STREAM

Este tipo de técnicas de procesamiento y análisis de datos se basan en la implementación de un modelo de flujo de datos en el que los datos asociados a series de tiempo (hechos) fluyen continuamente a través de una red de entidades de transformación que componen el sistema. Se conoce como procesamiento streaming o de flujo.

No hay limitaciones de tiempo obligatorias en el procesamiento de flujo, al contrario de lo que sucede con las técnicas de procesamiento y análisis de datos en tiempo real. Por ejemplo, un sistema que se ocupe del recuento de las palabras incluidas en cada tweet para el 99,9% de los tweets procesados es un sistema de procesamiento en stream válido. Tampoco existe una obligación en cuanto al plazo de tiempo de generación del output por cada input recibido en el sistema. Las únicas limitaciones son:

Se debe disponer de suficiente memoria para almacenar entradas en cola.

La tasa de productividad del sistema a largo plazo debería ser más rápida, o por lo menos igual, a la tasa de entrada de datos en ese mismo periodo. Si esto no fuese así, los requisitos de almacenamiento del sistema crecerían sin límite.

Este tipo de técnicas de procesamiento y análisis de datos no está destinado a analizar un conjunto completo de grandes datos, por lo que generalmente no presentan esa capacidad, salvo excepciones.

TÉCNICAS DE PROCESAMIENTO Y ANÁLISIS DE DATOS EN TIEMPO REAL

Cuando los datos se trabajan en tiempo real el nivel de procesamiento analítico en línea alcanzado es extremadamente alto y el margen es inferior a segundos. Precisamente por ello, los sistemas reales time no suelen usar mecanismos especiales para la atomicidad y durabilidad. Simplemente se ocupan de procesar la entrada tan pronto como sea posible.

La cuestión es lo que puede suceder si pierden la entrada. Cuando esto ocurre, hacen caso omiso de la pérdida y siguen procesando y analizando sin detenerse. En según qué entorno, esto no supone un problema, por ejemplo, en un ecommerce, pero puede serlo en el sistema de vigilancia de seguridad de un banco o de una instalación militar. No es bueno que se pierda información, pero incluso la tecnología tiene un límite y, cuando se trabaja de verdad en tiempo real, el sistema no puede dejar las operaciones para volver a arreglar algo que ya es pasado, quedó segundos atrás. Los datos que siguen llegando y el sistema debe hacer todo lo posible para continuar su procesamiento.

En cualquier caso, las técnicas de procesamiento y análisis de datos en tiempo real merecen una seria consideración, antes de su implementación ya que:

No son tan sencillas de poner en práctica mediante el uso de sistemas de software comunes.

Su coste es superior al de las opciones streaming.

Dependiendo del fin para el que se quieran utilizar, puede ser preferible optar por una opción intermedia entre streaming y tiempo real, como la que usa Amazon en su web y que garantiza un resultado que no excede en ningún caso los cien o doscientos milisegundos para el 99% de todas las solicitudes




ELABORACIÓN INSTRUMENTO Y PRUEBA PILOTO

 

Antes  de  pensar  en  construir  un  instrumento,  deberás  saber  si  ya  existe un  instrumento  o  teoría  previa  para  la  medición  que  pretendes  realizar,  la revisión de  la  literatura  consiste  en  la  revisión del  conocimiento  que  se  tiene -hasta  este  momento-  del  concepto  que  se  desea  medir,  entonces  se  te  va  a presentar  alguna  de  estas  tres  circunstancias:   Primera  circunstancia,  el  concepto  está  plenamente  definido;  segunda circunstancia,  el  concepto  está  parcialmente  definido;  y  tercera circunstancia,  el  concepto  no está  definido. Veamos un ejemplo  en  cada  una de  estas  tres  situaciones  y  lo  que  debemos  hacer  para  construir  un instrumento que  tenga  validez  de  contenido.

Primero, el concepto está plenamente definido:  

Imagina que le estas enseñando a un grupo de niños las operaciones aritméticas  y  deseas  evaluar  el  nivel  de  conocimientos  que  han  alcanzado luego  de  un  periodo  de  entrenamiento,  lo  que  debes  hacer  es  construir  un conjunto  de  ejercicios,  preguntas  o  ítems  que  contengan  la  suma,  resta, multiplicación  y  división.  ¿Qué pasaría si el examen que les has planteado incluye únicamente suma, resta, multiplicación, pero no división?  

Entonces, el contenido del instrumento  que  acabas  de  construir  no  alcanza  a  cubrir  el concepto  de  las  operaciones algebraicas.  No habrá validez de contenido. Ahora, si las operaciones que has incluido  en  este  examen  son  suma, resta,  multiplicación,  división  y  radicación,  el  contenido  planteado  se  está saliendo  del  concepto  y,  en  este  caso,  tampoco  habrá  validez  de  contenido. Como podrás deducir el único caso en el que podemos  asegurar  la  validez de  contenido  es  cuando  el  concepto  está  plenamente  definido,  así  como  las operaciones  aritméticas  suma,  resta,  multiplicación  y  división;  nadie  se opone  a  esta  verdad. 

Pero no siempre nos vamos a  encontrar  con  una  circunstancia  tan  fácil de  definir.  Por ejemplo, si queremos elaborar  un  examen  para  medir  el  nivel de  conocimientos  en  anatomía  humana  en  un  grupo  de  estudiantes  de medicina,  deberemos  elaborar  preguntas  sobre  cabeza  y  cuello,  tórax  y abdomen,  miembros superiores,    miembros inferiores  y  pelvis  periné.   Si  bien  en  el  ejemplo  se  han  identificado  las  dimensiones  del instrumento  que  queremos  construir,  no  sabemos  cuántas  preguntas deberemos  realizar  por  cada  uno  de  estos  segmentos  anatómicos;  así podemos  entender  que,  para  cubrir  exactamente  con  el  contenido,  el concepto  que  se  desea  medir  debe  existir  teoría  disponible.   

Segundo,  el  concepto  está  parcialmente  definido: 

Existen  circunstancias  en  las  cuales  podemos  encontrar  teoría medianamente  consistente  sobre  un  concepto,  pero  no  hay  instrumentos  y tampoco hay  un  consenso  acerca  del  concepto  que  deseamos medir.   Este  es  el  caso  de  un  instrumento  para  evaluar    la  adicción  a  Internet, encontrarás  que  existen  publicaciones  al  respecto,  existen  tentativas  de definición,  pero  no  existe  una  teoría  sólida  que  avale  el  concepto. 

En este caso  nuestra  tarea  no  puede  enfocarse  únicamente  en  revisar  la  literatura, sino  que  complementariamente  se  debe  iniciar  un  proceso  de  exploración del  concepto. Ahora,  -cómo  elegir  el  camino  que  debemos  seguir  para  la  exploración del  concepto-,  aquí  es  necesario  tener  conocimientos  acerca  del  concepto por  cuanto  su  medición  amerita  contar  in  un  instrumento,  lo  que  no  ocurre cuando  el  concepto  está  plenamente  definido.

Es  decir,  cualquiera  puede  elaborar  un  examen  de  aritmética  para  evaluar el  conocimiento de  las  operaciones matemáticas  para  un  grupo  de  niños;  sin embargo,  no  cualquiera  podrá  elaborar  un  instrumento  para  evaluar  la adicción  a  Internet.  En  este  caso  la  línea  de  investigación  del  investigador debe  ser  congruente  con  el  instrumento que  pretende  construir.

El  investigador  es  el  primer  experto  dentro  de  esta  temática,  debe  tener amplia  experiencia  en  el  desarrollo  de  estudios  dentro  de  esta  línea  de investigación,  aun  así  se  apoyará  en  el  conocimiento  publicado  hasta  este momento  y  en  el  conocimiento  que  han  acumulado  investigadores  que pertenecen  a  la  misma  línea  de  investigación,  para  poder  obtener  un concepto  de  consenso.  

Tercero,  cuando  el  concepto  no  está  definido:  

Cuando  no  existen  teorías,  no  hay  publicaciones  al  respecto  ni  tampoco existen  investigadores  dentro  de  la  línea  de  investigación  donde  se  pretende construir  el  instrumentos,  el  investigador  tendrá  que  considerar  la pertinencia  de  acuerdo  a  su  experiencia  de  enunciar  su  propia  teoría,  tendrá que  definir  el  concepto  para  poder  construir  su  instrumento. Como  es  lógico  en  este  punto,  donde  el  concepto  no  está  definido,  se requiere  que  el  investigador  sea  el  experto  número  uno  en  este  tema,  por cuanto es  el  único  que  pertenece  a  esta  línea  de  investigación.

 En  este  tercer  caso  hay  solamente  un  camino  para  seguir,  porque  no existe  teoría  y  no  podemos  hacer  una  revisión  del  conocimiento  disponible, tampoco  existen  investigadores  dentro  de  la  línea  de  investigación,  pero  de seguro  habrán  personas  que  no  siendo  investigadores  pueden  ser  incluidos como  expertos  y,  por  tanto,  como  única  fuente  de  información  para  la elaboración del  instrumento.

Por  ejemplo:  si  queremos  conocer  -cuáles  son  las  costumbres  que  tienen las  mujeres  a  la  hora  del  parto  en  una  región  alto  andina  en  el  sur  del  Perú-, con  la  finalidad  de  poder  realizar  una  atención  intercultural,  no  existe ninguna  publicación  acerca  de  este  tema  o  luego  de  la  búsqueda  exhaustiva de  la  literatura,  encontramos  que  no  hay  ningún  investigador  que  haya publicado  al  respecto.

Entonces,  nos  encontramos  en  caso  de  que  el  concepto  aún  no  está definido;  por  lo  tanto,  y  al  no  contar  con  literatura  o  investigadores  que compartan  la  misma  línea  de  investigación,  tendremos  que  recurrir  a personas  que  no siendo  investigadores  pueden  ser  considerados expertos.

   En este  punto es  preciso diferenciar  claramente  el  concepto  de  experto y el  concepto  de  jueces,  puesto  que  se  ha  se  difundido  erróneamente  que  la validación  por  expertos  es  sinónimo  de  la  validación  por  jueces. 

Un  experto es  una  persona  con  mucha  experiencia  en  un  determinado  campo,  no necesariamente  es  investigador  científico  y  un  juez  es  una  persona  con criterio  científico,  habitualmente  se  trata  de  un  investigador.

Por  ejemplo:  las  mujeres  que  empíricamente  ayudan  a  las  gestantes  a atender  su  parto,  a  las  que  llamamos  “parteras”  en  nuestra  región  se  les considera  como  expertas,  ellas  no  son  investigadoras,  ni  cuentan  con  una línea  de  investigación,  pero  de  seguro  cuentan  con  la  información  que necesitamos  para  poder  construir  un  instrumento  que  busque  identificar  las costumbres  que  tienen  estas  mujeres  a  la  hora  del  parto.

Los  expertos  nos  pueden  ayudar  a  explorar  el  concepto,  pero  esto  ya corresponde  al  siguiente  punto  de  nuestra  lista  de  diez  pasos,  porque  la estrategia  del  investigador  dependerá  -luego  de  haber  revisado  la    literatura- de  saber  en  cuál  de  estas  tres  situaciones  nos  encontramos  primero,  el concepto  está  plenamente  definido;  segundo,  el  concepto  está  parcialmente definido; y  tercero,  el  concepto  no está  definido.

Paso 2: Explora el concepto

En este  punto es  preciso diferenciar  claramente  el  concepto  de  experto y el  concepto  de  jueces,  puesto  que  se  ha  se  difundido  erróneamente  que  la validación  por  expertos  es  sinónimo  de  la  validación  por  jueces. 

Un  experto es  una  persona  con  mucha  experiencia  en  un  determinado  campo,  no necesariamente  es  investigador  científico  y  un  juez  es  una  persona  con criterio  científico,  habitualmente  se  trata  de  un  investigador.

Por  ejemplo:  las  mujeres  que  empíricamente  ayudan  a  las  gestantes  a atender  su  parto,  a  las  que  llamamos  “parteras”  en  nuestra  región  se  les considera  como  expertas,  ellas  no  son  investigadoras,  ni  cuentan  con  una línea  de  investigación,  pero  de  seguro  cuentan  con  la  información  que necesitamos  para  poder  construir  un  instrumento  que  busque  identificar  las costumbres  que  tienen  estas  mujeres  a  la  hora  del  parto.

Los  expertos  nos  pueden  ayudar  a  explorar  el  concepto,  pero  esto  ya corresponde  al  siguiente  punto  de  nuestra  lista  de  diez  pasos,  porque  la estrategia  del  investigador  dependerá  -luego  de  haber  revisado  la    literatura- de  saber  en  cuál  de  estas  tres  situaciones  nos  encontramos  primero,  el concepto  está  plenamente  definido;  segundo,  el  concepto  está  parcialmente definido; y  tercero,  el  concepto  no está  definido.

Sin  embargo,  en  las  otras  dos  circunstancias,  cuando  el  concepto  está parcialmente  definido  o  cuando  el  concepto  no  está  definido,  debemos explorar  el  concepto  y  esta  tarea  se  realiza  mediante  una  aproximación  a  la población,  para  lo  cual  utilizaremos  la  herramienta  denominada  entrevista  a profundidad. 

¿Qué  es  una  entrevista  a  profundidad?  Y  ¿A  quién  o  quienes debemos  realizarla? En  este  momento  debemos  anunciar  que  existen  dos  niveles  de exploración:  a  nivel  de  la  población  y  a  nivel  de  expertos,  veamos  el  primer caso  exploración  a  nivel  de  la  población  es  cuando  entrevistamos  a  los sujetos  que  más  adelante  serán  objetos  de  evaluación;  y  el  segundo  caso  a nivel  de  expertos,  es  cuando  entrevistamos  a  personas  que  no  siendo investigadores  conocen  más  que  nosotros  acerca  del  tema  que  deseamos medir.  

En  nuestro  ejemplo  acerca  de  las  costumbres  que  tienen  a  la  hora  del parto  las  mujeres  de  una  región  alto  andina  en  el  sur  del  Perú,  la  población de  estudio  son  las  mujeres  gestantes  porque  de  ellas  queremos  conocer  sus costumbres,  son  ellas  las  que  expresan  su  culturalidad  a  la  hora  del  parto  y son  a  ellas  a  quienes  más  adelante  les  vamos  a  brindar  una  atención intercultural,  ellas  corresponden  a  nuestras  unidades  de  estudio.

Pero  también  tenemos  a  las  parteras,  mujeres  que  empíricamente  ayudan a  atender  el  parto  a  aquellas  gestantes  que  no  acuden  al  hospital  para atender  su  parto  o  para  tener  un  parto  institucional.  Ellas  tienen  un  largo recorrido  atendiendo  el  parto  a  estas  mujeres,  conocen  incluso  mejor  que las  propias  gestantes,  las  costumbres  a  la  hora  del  parto,  pero  estas  parteras no  constituyen  el  objeto  de  estudio,  por  lo  tanto  no  corresponden  a  las unidades  de  estudio,  son  expertas  en  cuanto  a  las  costumbres  regionales,  y  aun  no  siendo  investigadores  nos  ayudarán  en  la  construcción  del instrumento.   Identificadas  las  dos  instancias  o  niveles  en  los  que  podemos  realizar nuestra  entrevista  a  profundidad,  ahora  veremos en  qué  consiste.

Una  entrevista  a  profundidad  no  es  más  que  una  conversación,  donde el  entrevistador  estimula  y  conduce  un  discurso continuo, cuyo  único  marco es  el  de  la  investigación;  y  se  hace  con  una  sola  pregunta;  nos  dirigimos  a   las  parteras  y  les  preguntamos  ¿cuáles  son  las  costumbres  que  tienen  a  la hora  del  parto  las  mujeres  de  esta  región?,  y  a  medida  de  que  vayan surgiendo  las  respuestas  del  entrevistado  iremos  formulando  interrogantes adicionales;  aquí  no  hay  un  libreto,  es  una  entrevista  no  estructurada,  no tenemos un  listado  de  preguntas  que  vamos a  realizar.  

Solamente  tenemos  una  pregunta,  el  contenido  y  la  profundidad  de  la entrevista  no  estructurada  es  adaptable  y  susceptible  de  aplicarse  a  toda clase  de  sujetos,  incluso  si  no  tienen  una  formación  académica  o  escolar, perfectamente  se  puede  aplicar  en  situaciones  diversas,  se  trata  de  una entrevista  netamente  cualitativa  y  es  holística  porque  busca  explorar  y descubrir  las  características  en  la  persona  entrevistada  de  manera  amplia.

No  hay  reglas;  el  objetivo  es  identificar  las  percepciones  personales  que tienen  a  nivel  individual  cada  uno  de  los  evaluados,  no  clasifica,  no  tiene interés  en  tabular  los datos,  lo  único  que  se  busca  con  este  procedimiento  es encontrar  el  mayor  número  de  características  que  nos  puedan  emitir  y enunciar  las  personas  entrevistadas. Aún  no  siendo  investigadores  nos  ayudarán  en  la  construcción  del instrumento.   Identificadas  las  dos  instancias  o  niveles  en  los  que  podemos  realizar nuestra  entrevista  a  profundidad,  ahora  veremos en  qué  consiste.

Una  entrevista  a  profundidad  no  es  más  que  una  conversación,  donde el  entrevistador  estimula  y  conduce  un  discurso continuo, cuyo  único  marco es  el  de  la  investigación;  y  se  hace  con  una  sola  pregunta;  nos  dirigimos  a   las  parteras  y  les  preguntamos  ¿Cuáles  son  las  costumbres  que  tienen  a  la hora  del  parto  las  mujeres  de  esta  región?,  y  a  medida  de  que  vayan surgiendo  las  respuestas  del  entrevistado  iremos  formulando  interrogantes adicionales;  aquí  no  hay  un  libreto,  es  una  entrevista  no  estructurada,  no tenemos un  listado  de  preguntas  que  vamos a  realizar.  

Solamente  tenemos  una  pregunta,  el  contenido  y  la  profundidad  de  la entrevista  no  estructurada  es  adaptable  y  susceptible  de  aplicarse  a  toda clase  de  sujetos,  incluso  si  no  tienen  una  formación  académica  o  escolar, perfectamente  se  puede  aplicar  en  situaciones  diversas,  se  trata  de  una entrevista  netamente  cualitativa  y  es  holística  porque  busca  explorar  y descubrir  las  características  en  la  persona  entrevistada  de  manera  amplia.

No  hay  reglas;  el  objetivo  es  identificar  las  percepciones  personales  que tienen  a  nivel  individual  cada  uno  de  los  evaluados,  no  clasifica,  no  tiene interés  en  tabular  los datos,  lo  único  que  se  busca  con  este  procedimiento  es encontrar  el  mayor  número  de  características  que  nos  puedan  emitir  y enunciar  las  personas  entrevistadas.


ANÁLISIS E INTERPRETACIÓN DE DATOS: LA TRIANGULACIÓN

La triangulación es una técnica de análisis de datos que se centra en el contrastar visiones o enfoques a partir de los datos recolectados. ...