¿Por qué la probabilidad del binomio es la misma que la probabilidad de un binomio negativo?

La probabilidad a menudo solo se define hasta un múltiplo constante arbitrario porque cuando se maximiza la probabilidad, dicha constante no tiene efecto en la posición del máximo. Un Bayesiano vería [matemáticas] 20 [/ matemáticas] éxitos en [matemáticas] 100 [/ matemáticas] ensayos como la información crucial. Si la regla era detener el muestreo en la prueba [matemática] 100 [/ matemática], o en el éxito [matemática] 20 [/ matemática] o en la falla [matemática] 80 [/ matemática] es irrelevante. De hecho, la constante binomial desaparece si considera [matemática] 100 [/ matemática] ensayos independientes. Solo aparece cuando resume los datos como una estadística suficiente y única: la cantidad de éxitos.

Matemáticamente, puede derivar un caso especial del binomio negativo, éxitos [matemáticos] r [/ matemáticos] en ensayos [matemáticos] n [/ matemáticos], del binomio. Nos detenemos en los éxitos de [matemáticas] r [/ matemáticas], así que en el ensayo justo antes de que ocurriera el éxito de [matemáticas] r [/ matemáticas] hubo [matemáticas] r-1 [/ matemáticas] éxitos en [matemáticas] n-1 [/ math] ensayos y la probabilidad de esto se deriva del binomio [math] \ binom {n-1} {r-1} p ^ {r-1} (1-p) ^ {nr} [/ math] . Si multiplica por [math] r [/ math] para tener en cuenta la última prueba, esto solo difiere del binomio en el coeficiente constante.

Por cierto, en la forma más general del binomio negativo [math] n [/ math] no necesita ser un número entero y el parámetro correspondiente es [math] nr [/ math]. Esto ya no tiene nada que ver con pruebas y éxitos, pero la fórmula es la misma. Tomar [math] nr [/ math] como parámetro es una buena idea de todos modos porque la suma de los binomios negativos es otro binomio negativo.