¿Puede el análisis de datos mediante software proporcionar rigor?

¿Puede el análisis de datos mediante software proporcionar rigor?

António Pedro Costa, Universidad de Aveiro (Portugal)

Para apoyar a los investigadores, en casi todas las fases de los proyectos de investigación, han surgido numerosas soluciones tecnológicas. En general, el uso de estas herramientas aporta mayor agilidad y completitud, permitiendo trabajar un gran volumen de datos de forma organizada y muy coherente. La investigación cualitativa se ha beneficiado de un enorme progreso en términos de métodos y técnicas con un uso intensivo de la tecnología. Las exigencias actuales del contexto en el que se produce la investigación obligan cada vez más a los investigadores a dotarse de herramientas digitales que aporten agilidad y eficiencia en sus procesos de investigación. Independientemente de la naturaleza de la investigación, el investigador, mediante el uso de herramientas digitales, busca que los datos recopilados por él sean analizados de forma juiciosa, rigurosa y sistemática, gestionando de forma más eficaz el tiempo empleado y aumentando la fiabilidad de los datos. resultados obtenidos (Baugh, Hallcom y Harris, 2010).

Diferentes campos de aplicación exploran herramientas para apoyar el análisis de datos cualitativos, el denominado Software de Análisis de Datos Cualitativos Asistido por Computadora (CAQDAS) o el Software de Análisis de Datos Cualitativos (QDAS) como es el caso del software webQDA (2019) – webqda.net. El simple uso de un CAQDAS no garantiza el rigor que el investigador debería observar. Independientemente del uso del software, el investigador debe definir las preguntas de investigación y sus objetivos, desarrollar el método, así como las técnicas de recolección y análisis de datos. A continuación, debe buscar el CAQDAS que mejor se adapte a su proyecto de investigación. Visualizar la estructura, leer las características disponibles, experimentar con un CAQDAS, permite al investigador menos experimentado comprender las diferentes fases del análisis de datos cualitativos. Esta preocupación por elegir “la mejor herramienta” es una decisión que se verá reflejada en el resultado final del análisis de datos.

En esta configuración, webQDA le permite explorar, directa o indirectamente, técnicas de validación, como:

  • Técnica Delphi: basada en el principio de que las predicciones de un grupo estructurado de expertos son más precisas que las de grupos no estructurados o individuos. Cada elemento queda así aislado de la influencia de los demás (deben ser especialistas);
  • Alfa de Krippendorff: el coeficiente alfa de Krippendorff es una medida estadística del acuerdo alcanzado al codificar un conjunto de unidades de análisis en términos de los valores de una variable/atributo;
  • Kappa de Cohen: el coeficiente Kappa de Cohen es una estadística que se utiliza para medir la confiabilidad entre evaluadores de los ítems cualitativos. Por lo general, se considera una medida más sólida que el simple cálculo de la concordancia porcentual, ya que κ tiene en cuenta la posibilidad de que la concordancia se produzca por casualidad.

Como se puede aplicar a las tres técnicas descritas, Creswell & Miller (2000) afirman que al realizar un trabajo de codificación, inicialmente no se debe esperar obtener más del 70% de concordancia. Idealmente, los acuerdos entre codificadores e intracodificadores deberían estar cerca del 90%, pero esta situación es difícil de materializar. Lessard-Herbert, Boutin y Goyette (1990) afirman que la búsqueda de la validación sincrónica puede resultar muy estimulante para el investigador, ya que lo obliga a reflexionar sobre el hecho de que resultados ligeramente diferentes pueden ser simultáneamente verdaderos. Si bien este proceso de intercodificación puede considerarse reductivo, ya que deja parte de la riqueza de la información en la sombra, este tipo de análisis es insustituible a nivel de validación (Bardin, 2004). Como ya defendía Vala en la década de 1980, cualquier contenido es susceptible de diferentes interpretaciones, dependiendo de los analistas, es decir, dos codificadores, al analizar un mismo material, ciertamente llegan a resultados diferentes (1989). Este aspecto forma parte de la propia naturaleza de la investigación cualitativa.

En este contexto, cuando involucramos a expertos para validar el modelo de categorías, no corroboramos lo que afirman los autores Gibbs, Friese y Mangabeira (2002): que los CAQDAS son menos útiles para abordar cuestiones de validez y confiabilidad en las ideas temáticas que surgen durante el análisis de datos.

Otra dimensión del rigor del trabajo realizado online es la integridad del investigador. Recopila, valida y analiza datos en línea, transfiere y comparte información, involucra a diferentes actores en diferentes momentos de su estudio. Esta flexibilidad y facilidad en las acciones del usuario lo lleva a menudo a ignorar los pasos metodológicos definidos. Siempre puede ajustarlos debido a algunas restricciones y limitaciones que puedan haber surgido durante el estudio. Esto implica un pacto ético contigo y los demás involucrados.

Compartir
Share on facebook
Share on twitter
Share on linkedin
Share on email
Share on whatsapp

Noticias Relacionadas

Las preguntas sobre qué se entiende por conocimiento científico, cómo generarlo y validarlo, así como su finalidad y utilidad, resultan claves en el desarrollo de la investigación en cualquier área. En el campo de las Ciencias Sociales y, particularmente, en el ámbito de la Educación, las respuestas a estas y otras cuestiones relacionadas con los aspectos ontológicos, epistemológicos y metodológicos de la investigación…
Um dos principais erros verificados em investigação é a falta de planeamento dos métodos adequados para a análise dos dados. Por exemplo, para se elaborar um instrumento de recolha de dados é necessário ter em atenção as ferramentas que se utilizará para obter os resultados (análise). Analisar dados qualitativos não é uma tarefa isenta de dificuldades, pois o corpus de dados não numérico e não-estruturado é, geralmente, difuso e complexo.
El Análisis de Contenido es una técnica de análisis de datos, recolectados de varias fuentes, pero expresados, preferentemente, en textos o en imágenes. La naturaleza de estos documentos puede ser muy variada, como material de archivo, textos literarios, informes, noticias, comentarios evaluadores de determinada situación, diarios y autobiografías, artículos seleccionados a través del método de revisión de la literatura, transcripciones de entrevistas, textos solicitados sobre un determinado tema, notas de campo, etc.