Control de la variabilidad

La investigación científica es un proceso sistemático y luego todo sistema necesita control, el control del proceso investigativo se da en dos momentos: el primero es el control de las variaciones aleatorias (error aleatorio), el segundo es el control del error humano al diseñar un método defectuoso por parte del investigador (error sistemático).

El control comienza creando un diseño investigativo adecuado, un buen investigador es sinónimo de un buen diseñador, luego la estadística y el análisis de datos controlan tanto el error aleatorio como el error sistemático que, no pudimos controlar con el diseño metodológico.

En un sentido estricto todo estudio es controlado, de manera que se considera, que no solamente los ensayos clínicos son controlados, el control es una característica natural de todo estudio, pero existen diferentes niveles de control.

Dotar de grupo control a un grupo de estudio es parte de la estrategia de un experimento, pero dentro de un experimento también existe el autocontrol, el control de los sesgos de selección y medición; así como el control estadístico, que aplicamos antes y después de recolectar los datos, revisaremos todos estos conceptos en la siguiente presentación.

1. Control del error aleatorio

Cada vez que se estima un parámetro de la población a partir de una muestra, el resultado solo es una aproximación, cada vez que se ejecute el mismo estudio sobre en la misma población con diferente muestra, el resultado es distinto, estas diferencias se deben a la variabilidad y a ello se le denomina error aleatorio.

El error aleatorio es la diferencia que existe entre la media de una muestra y la media de todas las muestras, vamos a suponer que se desea conocer la prevalencia de diabetes en una población, en un primer estudio encontramos una prevalencia del 10%, en un segundo estudio 12%, y en un tercer estudio 8%, estas variaciones son naturales y son variaciones aleatorias.

Calculemos el valor medio de todas estas mediciones, que en nuestro ejemplo sería del 10%; la distancia que hay entre el resultado de la prevalencia en cada estudio y la media de todos los grupos, se conoce como error aleatorio, mientras más grande sea esta distancia, mayor es el error aleatorio, mientras más corta es la distancia, habrá mayor precisión en el resultado.

Al incrementar el tamaño de la muestra, la distancia entre la prevalencia de la muestra, respecto del valor medio de todas las muestras se reduce; esto quiere decir que: aumentar de tamaño de la muestra disminuye el error aleatorio, y mientras menos error aleatorio, el resultado es más preciso; incrementar el tamaño de la muestra incrementa la precisión del estudio.

La única forma de eliminar el error aleatorio es estudiar a toda la población, solo en ese caso el error aleatorio desaparece; entonces si realizamos un estudio de prevalencia en toda la población y volvemos a replicar el estudio nuevamente en toda la población, tendríamos que encontrar exactamente el mismo valor.

Siendo que en la mayoría de los casos realizamos estudios en función a muestras, segmentos de la población, debemos conocer cuál será la magnitud del error aleatorio. Dicho de otro modo, debemos calcular el tamaño de la muestra en función a la magnitud del error aleatorio que estamos dispuestos a aceptar para nuestro estudio.

Así que, lo primero que debemos hacer es reconocer que nuestro estudio basado en una muestra va a presentar error aleatorio, que en muestreo se le denomina error de estimación, y en segundo lugar establecer un límite para este error de estimación en función a la precisión que deseamos para el resultado de nuestro estudio.

El control del error aleatorio significa, que como investigadores, reconocemos que habrá un error aleatorio, debido a la variabilidad natural que presentan las muestras, pero que estamos dispuestos a ponerle un límite a ese error de estimación, de acuerdo a nuestras propias necesidades, entonces la forma de controlar este error es con el tamaño de la muestra.

A su vez, cuando realicemos el estudio de prevalencia, el valor que encontramos para la prevalencia, por ejemplo 10%, se le denomina estimación puntual, este valor tiene que acompañarse de un intervalo de confianza, que será más amplio cuando menor sea la muestra o un intervalo más reducido mientras más grande sea la muestra.

Es por esta razón que toda estimación puntual, se acompaña con su respectivo intervalo de confianza,el mismo que en su amplitud refleja la precisión de la estimación, mientras más reducido el intervalo de confianza, el resultado es más preciso y ello es consecuencia de un tamaño de muestra más grande.

2. Control del error sistemático

Incluso si fuéramos capaces de estudiar a toda la población; cuando dos investigadores realizan el mismo estudio sobre la misma población, no necesariamente obtienen resultados iguales, porque existen errores propios del proceso investigativo, errores humanos que impiden obtener resultados constantes, eso es el error sistemático.

El error sistemático se expresa en la diferencia que existe entre la media de todos los grupos estudiados y el verdadero valor. De manera que el valor verdadero o valor real de un determinado parámetro es siempre desconocido, porque el error sistemático no es factible de eliminar, siempre está presente, pero debemos reducirlo al máximo.

Mientras más corta sea la distancia entre la media de todos los grupos estudiados y verdadero el valor del parámetro, nuestro resultado será más exacto, la exactitud no depende del azar o la aleatoriedad, sino del esfuerzo que realice el investigador para reducir al máximo esta distancia entre el valor calculado y el valor real, aunque nunca se llegue a eliminar.

La precisión es un prerrequisito para la exactitud; de nada sirve que los resultados sean exactos si es que no son precisos, en un campeonato de tiro, de nada sirve disparar repetidamente sobre el mismo lugar, cuando este destino no es el blanco, así que antes de pensar en disparar siempre al mismo lugar, debemos identificar cual es el objetivo.

La precisión está incluida dentro de la exactitud, un resultado exacto es necesariamente preciso, y con esto debemos desterrar el mito de que “hay resultados exactos, pero no precisos”, esto sería como remar en un bote salvavidas con mucho entusiasmo sin conocer el destino, sin rumbo definido, no hay beneficio en el esfuerzo sino en la meta lograda.

El error sistemático no se puede eliminar, solamente se puede reducir y a diferencia del error aleatorio que se controla mediante el cálculo del tamaño de la muestra y se llega a conocer la magnitud del error de estimación, en el error sistemático, no es posible conocer la magnitud del error que queda, incluso luego de haber hecho todo lo necesario para reducirlo.

El error sistemático es sinónimo de sesgo, y se ha generalizado al término de “validez” como la carencia del error sistemático, aunque sabemos que el error sistemático no se puede eliminar, y que el término de “validez” en realidad engloba tanto al control del error aleatorio como al control del error sistemático.

El control del error sistemático se logra diseñando un buen método, e implica haber controlado previamente el error aleatorio; si esto es así, podemos trasladar las conclusiones que hemos obtenido en la muestra hacia la población, a esto se le denomina validez interna, no se refiere al proceso denominado inferencia, sino a la condición que permite hacerlo.

La validez interna, es una condición que debe alcanzar el estudio si es que queremos realizar inferencia, por esta razón, a esta condición también se le conoce cómo validez de inferencia; si el estudio no es capaz de alcanzar la validez interna, entonces sus conclusiones no son extrapolables a la población de donde fue extraída la muestra.

La validez interna es una condición deseable en todos los estudios, mientras que la validez externa solamente en los estudios analíticos, lo cual significa que los resultados pueden ser extrapolados de una población a otra que no fue objeto de estudio. En los estudios descriptivos no se busca validez externa, puesto que los parámetros varían de población en población.

3. Control metodológico

Desde un principio, para todo estudio es ideal que contemos con un marco muestral, pero sabemos que el marco muestral está ausente en muchos casos, en esta situación el investigador debe definir o delimitar un marco muestral, bajo esa premisa ya se está asumiendo la existencia de un error sistemático.

El muestreo aleatorio simple es el único procedimiento que asegura una muestra ideal como utópica, y si no se puede ejecutar este procedimiento, se usa otra alternativa probabilística, pero también se estará introduciendo un elemento más para el error sistemático. Por otro lado, el utilizar un muestreo no probabilístico amenaza a la validez interna.

Mediante los criterios de elegibilidad, se identifican a las variables intervinientes, elementos que contaminan la relación entre dos variables analíticas, y mediante los criterios de inclusión y exclusión, se deben eliminar, y si no es posible eliminarlas, se asume un ingrediente adicional para el error sistemático.

Cuando la unidad de estudio es un sujeto, como pacientes, usuarios, alumnos o clientes, a los que se denomina unidades de estudio, si se da el caso de que uno o más pacientes que conforman la muestra, abandonan el estudio o no completan el periodo de seguimiento, no llegan al final del trabajo de investigación se introduce un sesgo adicional.

Para realizar mediciones insesgadas se requiere de un observador objetivo, el investigador como autor del estudio y poseedor de una hipótesis, intenta demostrar su planteamiento, intenta que su propuesta sea considerada como verdadera, de manera que consciente o inconscientemente esto formará parte del error sistemático.

El instrumento, con el que se realizan las mediciones, debe estar previamente validado, pero, un instrumento que mide lo que debe medir, no es suficiente, además debe ser consistente y estable, debe entregar mediciones que sean factibles de corroborar y debe estar optimizado para entregar los mejores niveles de sensibilidad y especificidad.

Cuando de una entrevista se trata, es importante contar con una estrategia de recolección de datos, esto porque los entrevistados no siempre dicen la verdad, por ejemplo, en lugar de preguntar la edad, se le pide su documento nacional de identidad para verificar su fecha de nacimiento y así obtener un valor real del dato que se desea conocer.

Se debe evitar que el evaluado se encuentre influenciado por el proceso de la medición, y es que en muchos casos el acto de medir puede modificar la variable que se está midiendo en un sujeto, esto ocurre por ejemplo cuando se utiliza la técnica de recolección de datos denominada observación participante.

En un protocolo de investigación, no existe un capítulo donde coloquemos todo lo necesario para hacer control del estudio, el protocolo en sí, es un documento que debe exhibir en todo su contenido estrategias para controlar los sesgos, para asegurar que los resultados del estudio cuenten con validez interna.

Pero como el error sistemático no es posible de eliminar y en muchos casos por cuestiones de factibilidad, el estudio asume sesgos que son factibles de detectar, todavía nos quedan algunas herramientas para controlar los sesgos, se trata de la estadística y el análisis de datos, orientados al control del estudio.

 4. Control estadístico

El proyecto de investigación debe ser un registro completo de todas las acciones que realizaremos para controlar metodológicamente el estudio, pero no todos los elementos que contaminan la validez de un estudio pueden controlarse a nivel metodológico, en ese caso se puede considerar al análisis de datos como un control estadístico.

Podemos mencionar todas las características o requerimientos de un estudio ideal, desde lo profundo del diseño mismo, partiendo de que un estudio prospectivo siempre será mejor que uno retrospectivo, pero la realidad nos obliga factibilizar el estudio, asumiendo una gran cantidad de sesgos que bien pueden controlarse con la estadística.

Por ejemplo, en los estudios explicativos, es ideal realizar un estudio con intervención, pero este se ve limitado por las consideraciones éticas que aparecen en el estudio con seres vivos, así que nos queda un estudio observacional, donde tendremos que controlar la relación entre las variables analíticas con el análisis estratificado.

El análisis estratificado permite descartar asociaciones aleatorias, casuales o espurias que se hayan detectado en el nivel investigativo anterior; si las variables que contaminan la relación de causalidad, no pueden ser eliminadas, no pueden ser controladas metodológicamente, entonces, deben ser recolectadas e integradas al análisis de datos.

Cuando las unidades de estudio son: personas, pacientes, usuarios o clientes y no completan el periodo de investigación, muchos de ellos se van perdiendo en el camino, podemos utilizar técnicas estadísticas para evitar llegar a conclusiones equivocadas, en ese caso los pacientes que abandonan el estudio también deben incluirse en el análisis de datos.

Por ejemplo, si un gimnasio ofrece a 30 pacientes diabéticos un programa de 3 meses, para reducir 5 kg de peso, en el camino algunos pacientes se van retirando, al final únicamente quedan 10, no podemos hacer conclusiones con estos únicos 10 pacientes, los otros 20 que se retiraron probablemente lo hicieron porque no estaban experimentando resultados positivos.

Si hacemos una comparación del peso promedio al inicio y al final del programa de dieta y ejercicios, únicamente con los que terminaron el programa, estaríamos dando conclusiones erradas; existen procedimientos estadísticos que nos permiten hacer un seguimiento de este tipo; a este procedimiento se le conoce como “análisis de supervivencia”.

A diferencia de lo que muchos creen, la estadística no solamente se utiliza para hacer estimaciones puntuales y pruebas de hipótesis. El análisis de datos es una herramienta útil también para controlar situaciones que metodológicamente, no pudieron ser neutralizadas es una herramienta clave para el control del sesgo.

El análisis de datos aplicado a la investigación científica, no es solamente para estimar frecuencias, construir tablas y gráficas de resultados; el análisis de datos nos ayuda a decidir: si la información que tenemos en frente es útil o no, o que grado de confianza le podemos conferir a nuestra información y por lo tanto a nuestros resultados.

En la investigación cuantitativa, el control estadístico es tan importante como el control metodológico para poder asegurar la validez interna; el control del error aleatorio y el error sistemático, para decidir si nuestras conclusiones son válidas, esto es una forma de ver al análisis estadístico como una herramienta para el control del sesgo de la investigación.

¿Quieres saber más?

¿Aún no tiene tema de tesis?

Haz click en el botón de abajo y te daré un tema de tesis en menos de un minuto.

Obtén tu tema de tesis