Errores en las hipótesis

Una pregunta que surge siempre en la presentación de los datos de una investigación es si te habrás equivocado aceptando o rechazando alguna hipótesis.


Evidentemente, nos podemos equivocar, ya que como no trabajamos con la población total sino con una muestra representativa de la misma, resulta imposible asegurar de forma absoluta (con una certeza del 100%) que la hipótesis nula es verdadera o falsa. El investigador debe darse por satisfecho con saber que probablemente lo sea, sin olvidar que toda inferencia estadística lleva implícito siempre el riesgo de cometer algún error. Todo depende de ese error, al que llamamos α, Por tanto, El error α es la probabilidad de equivocarnos al  rechazar la hipótesis nula.

 

A partir de los resultados de un estudio, puede llegarse a diferentes conclusiones:

 

  • -          Puede concluirse que existen diferencias entre los grupos que componen la muestra y que esas diferencias también existirían en otras muestras diferentes tomadas en esa población.


  •  Puede concluirse que no hay diferencias entre los grupos que componen la muestra y que esas diferencias tampoco existirían en otras muestras diferentes tomadas en esa población


En cualquiera de estos dos casos, no habríamos cometido ningún error, puesto que lo que ha ocurrido en la muestra hubiera ocurrido igual en cualquier otra muestra de la población.




Pero la toma de alguna de estas dos decisiones no está exenta de riesgo de equivocación, o sea, el investigador puede equivocarse y rechazar Ho cuando realmente es cierta, o bien, aceptar Ho cuando verdaderamente es falsa. 

El error tipo I que consiste en decir que existen diferencias estadísticamente significativas (porque realmente sí existen en la muestra que se ha tomado) cuando realmente esto no es cierto (estas diferencias no existirían en otras de las infinitas muestras que podrían haberse tomado de esa población). 

Al cometer este error, el investigador rechaza la hipótesis nula (dice que hay diferencias) aunque realmente no las hay. 

La probabilidad de cometer este error suele ser 0.05. Esta probabilidad es lo que mide precisamente la significación estadística p, que, universalmente se acordó que fuera como mínimo de α = 0.05 (aunque en ocasiones se trabaja con un α = 0.01, cuando se dan resultados con una p < 0.01). Por tanto, la probabilidad de cometer este error se denomina α y por eso al error tipo I también se le conoce como error α. 

El error tipo II en el que se indica que no existen diferencias (en la muestra no se hallan diferencias estadísticamente significativas), cuando realmente esto no es cierto (sí las habría en otras de las infinitas muestras que se podrían haber tomado de la población). 

A este tipo de error también se le conoce como error β. 

Al cometer este error, el investigador acepta la hipótesis nula (dice que no hay diferencias) cuando realmente sí las hay. Como ya se comentó, la probabilidad de cometer este error ha de establecerse ya para calcular el tamaño de la muestra, y generalmente oscila entre el 5 y el 20%, en función de las consecuencias que pueda tener cometerlo. 

La probabilidad de cometer este error suele ser 0.2, ya que su complementario (1-β) es el poder estadístico o potencia estadística, que como ya se ha comentado, suele establecerse en 0.8, lo que indicaría, como ya se ha explicado, que el estudio tendría un 80% de probabilidad de detectar diferencias si estas realmente existen. 

Dicho de otro modo que quizás pueda ayudar a integrar esta información que resulta tan farragosa al principio: el error tipo I dice que hay diferencias cuando realmente no existen. 

El error tipo II afirma que no hay diferencias cuando realmente sí existen. 




El error tipo II es más probable que se cometa que el tipo I (0.2 > 0.05) .

Porque, como ya se ha comentado, es preferible equivocarse y decir que una intervención no es efectiva cuando realmente sí lo es (cometer el error tipo II) que decir que es efectiva cuando realmente no lo es (error tipo I). 
El error tipo II o β habitualmente se sitúa entre el 0.05 y el 0.2. La elección del valor variará en función de las consecuencias que pueda tener cometer dicho error, pues no es lo mismo cometerlo para una intervención educativa que en un fármaco, por ejemplo. 

Así, si fijamos un error β del 20% (0.2), la potencia del estudio será de 0.80 = (1 – 0.2), y eso significa que, si la diferencia realmente existe, el estudio tiene un 80% de probabilidad de detectarla. 




 

- Si establecemos una significación estadística de α = 0.01, esa será la probabilidad de cometer el error tipo I (o lo que es lo mismo, diremos que existen diferencias si realmente no las hay en menos del 1% de los casos). Pero disminuir la probabilidad de cometer este error tipo I hace que aumente la probabilidad de cometer el error tipo II, conclusión a la que además de gráficamente (como se muestra en la figura) se puede llegar mediante la razón.

 

 

- Si disminuimos la probabilidad de decir que existen diferencias si no las hay, estamos exigiendo al estudio una alta capacidad para detectar dichas diferencias, por tanto, puede que no lleguemos a detectar diferencias en tal grado de “exigencia”. Queda pues claro que cuanto menor sea la probabilidad de cometer un error tipo I, mayor será la probabilidad de cometer el error de tipo II.

 





Comentarios