Una pregunta que surge siempre en la presentación de los
datos de una investigación es si te habrás equivocado aceptando o rechazando alguna hipótesis.
Evidentemente, nos podemos equivocar, ya que como no
trabajamos con la población total sino con una muestra representativa de la
misma, resulta imposible asegurar de forma absoluta (con una certeza del 100%)
que la hipótesis nula es verdadera o falsa. El investigador debe darse por
satisfecho con saber que probablemente lo sea, sin olvidar que toda inferencia
estadística lleva implícito siempre el riesgo de cometer algún error. Todo
depende de ese error, al que llamamos α, Por tanto, El error α es la probabilidad
de equivocarnos al rechazar la hipótesis
nula.
A partir de los resultados de un estudio, puede llegarse a
diferentes conclusiones:
- -
Puede concluirse que existen diferencias entre
los grupos que componen la muestra y que esas diferencias también existirían
en otras muestras diferentes tomadas en esa población.
- Puede concluirse que no hay diferencias entre
los grupos que componen la muestra y que esas diferencias tampoco existirían
en otras muestras diferentes tomadas en esa población
En cualquiera de estos dos casos, no habríamos cometido
ningún error, puesto que lo que ha ocurrido en la muestra hubiera ocurrido
igual en cualquier otra muestra de la población.
Pero la toma de alguna de estas dos decisiones no está exenta de riesgo de equivocación, o sea, el investigador puede equivocarse y rechazar Ho cuando realmente es cierta, o bien, aceptar Ho cuando verdaderamente es falsa.
El error tipo I que consiste en decir que existen diferencias estadísticamente significativas (porque realmente sí existen en la muestra que se ha tomado) cuando realmente esto no es cierto (estas diferencias no existirían en otras de las infinitas muestras que podrían haberse tomado de esa población).
Al cometer este error, el investigador rechaza la hipótesis nula (dice que hay diferencias) aunque realmente no las hay.
La probabilidad de cometer este error suele ser 0.05. Esta probabilidad es lo que mide precisamente la significación estadística p, que, universalmente se acordó que fuera como mínimo de α = 0.05 (aunque en ocasiones se trabaja con un α = 0.01, cuando se dan resultados con una p < 0.01). Por tanto, la probabilidad de cometer este error se denomina α y por eso al error tipo I también se le conoce como error α.
El error tipo II en el que se indica que no existen diferencias (en la muestra no se hallan diferencias estadísticamente significativas), cuando realmente esto no es cierto (sí las habría en otras de las infinitas muestras que se podrían haber tomado de la población).
A este tipo de error también se le conoce como error β.
Al cometer este error, el investigador acepta la hipótesis nula (dice que no hay diferencias) cuando realmente sí las hay. Como ya se comentó, la probabilidad de cometer este error ha de establecerse ya para calcular el tamaño de la muestra, y generalmente oscila entre el 5 y el 20%, en función de las consecuencias que pueda tener cometerlo.
La probabilidad de cometer este error suele ser 0.2, ya que su complementario (1-β) es el poder estadístico o potencia estadística, que como ya se ha comentado, suele establecerse en 0.8, lo que indicaría, como ya se ha explicado, que el estudio tendría un 80% de probabilidad de detectar diferencias si estas realmente existen.
Dicho de otro modo que quizás pueda ayudar a integrar esta información que resulta tan farragosa al principio: el error tipo I dice que hay diferencias cuando realmente no existen.
El error tipo II afirma que no hay diferencias cuando realmente sí existen.
El error tipo II es más probable que se cometa que el tipo I (0.2 > 0.05) .
• Porque, como ya se ha comentado, es preferible equivocarse y decir que una intervención no es efectiva cuando realmente sí lo es (cometer el error tipo II) que decir que es efectiva cuando realmente no lo es (error tipo I).
• El error tipo II o β habitualmente se sitúa entre el 0.05 y el 0.2. La elección del valor variará en función de las consecuencias que pueda tener cometer dicho error, pues no es lo mismo cometerlo para una intervención educativa que en un fármaco, por ejemplo.
Así, si fijamos un error β del 20% (0.2), la potencia del estudio será de 0.80 = (1 – 0.2), y eso significa que, si la diferencia realmente existe, el estudio tiene un 80% de probabilidad de detectarla.
- Si establecemos una significación estadística de α = 0.01, esa
será la probabilidad de cometer el error tipo I (o lo que es lo mismo,
diremos que existen diferencias si realmente no las hay en menos del 1% de
los casos). Pero disminuir la probabilidad de cometer este error tipo I hace
que aumente la probabilidad de cometer el error tipo II, conclusión a la que
además de gráficamente (como se muestra en la figura) se puede llegar
mediante la razón.
|
- Si disminuimos la probabilidad de decir que existen diferencias si
no las hay, estamos exigiendo al estudio una alta capacidad para detectar
dichas diferencias, por tanto, puede que no lleguemos a detectar diferencias
en tal grado de “exigencia”. Queda pues claro que cuanto menor sea la
probabilidad de cometer un error tipo I, mayor será la probabilidad de
cometer el error de tipo II.
|
Comentarios
Publicar un comentario