Como os erros de tipo 1 e 2 podem ser minimizados?

Responda:

A probabilidade de um erro do tipo 1 (rejeitando uma hipótese nula verdadeira) pode ser minimizada escolhendo um nível menor de significância #alpha# antes de fazer um teste (exigindo um menor #p#-valor para rejeitar #H_{0}#).

Uma vez definido o nível de significância, a probabilidade de um erro do tipo 2 (falha na rejeição de uma hipótese nula falsa) pode ser minimizada escolhendo um tamanho de amostra maior ou escolhendo um valor alternativo "limite" do parâmetro em questão. mais longe do valor nulo. Esse valor alternativo do limite é o valor que você assume sobre o parâmetro ao calcular a probabilidade de um erro do tipo 2.

Para ser "honesto" do ponto de vista intelectual, prático e talvez moral, no entanto, o valor limite deve ser escolhido com base na diferença mínima "importante" do valor nulo que você gostaria de poder detectar corretamente (se for verdade ) Portanto, a melhor coisa a fazer é aumentar o tamanho da amostra.

Explicação:

O nível de significância #alpha# de um teste de hipótese é igual à probabilidade de um erro do tipo 1. Portanto, configurando-o mais baixo, reduz a probabilidade de um erro do tipo 1. "Ajustar para baixo" significa que você precisa de evidências mais fortes contra a hipótese nula #H_{0}# (através de uma #p#-value) antes de rejeitar o nulo. Portanto, se a hipótese nula for verdadeira, será menos provável que você a rejeite por acaso.

Reduzir #alpha# reduzir a probabilidade de um erro do tipo 1 é necessário quando as conseqüências de cometer um erro do tipo 1 são graves (talvez as pessoas morram ou muito dinheiro seja desnecessariamente gasto).

Uma vez que um nível de significância #alpha# foi decidido. Para reduzir a probabilidade de um erro do tipo 2 (porque as consequências também podem ser graves), você pode aumentar o tamanho da amostra ou escolher um valor alternativo do parâmetro em questão que seja mais distante do valor nulo.

Ao aumentar o tamanho da amostra, você reduz a variabilidade da estatística em questão, o que reduzirá suas chances de deixar de estar na região de rejeição quando sua verdadeira distribuição de amostra indicar que ela deve estar na região de rejeição.

Ao escolher um valor limite do parâmetro (sob o qual calcular a probabilidade de um erro do tipo 2) que esteja mais distante do valor nulo, você reduz a chance de a estatística de teste estar próxima do valor nulo quando sua distribuição amostral indicaria que deve estar longe do valor nulo (na região de rejeição).

Por exemplo, suponha que estamos testando a hipótese nula #H_{0}:mu=10# versus a hipótese alternativa #H_{a}:mu>10# e suponha que decidamos sobre um pequeno valor de #alpha# que leva à rejeição do nulo se #bar{x}>15# (esta é a região de rejeição). Então, um valor alternativo de #mu=16# levará a uma chance menor que 50% de falha na rejeição incorreta #H_{0}# quando #mu=16# é considerado verdadeiro, enquanto um valor alternativo de #mu=14# levará a uma chance maior que 50% de falhar incorretamente na rejeição #H_{0}# quando #mu=14# é assumido como verdadeiro. No primeiro caso, a distribuição amostral de #bar{x}# está centralizado no 16 e a área abaixo dele à esquerda do 15 será menor que 50%, enquanto no último caso a distribuição amostral de #bar{x}# está centralizado no 14 e a área abaixo dele, à esquerda do 15, será maior que% 50.