La probabilidad no es una cosa absoluta, como es el estado físico de la moneda en la mecánica newtoniana. La probabilidad es relativa a la información que tiene. Cuando decimos que una moneda tiene 50-50 posibilidades de aterrizar cara o cruz, queremos decir que personalmente sabemos que esas son las dos únicas opciones, pero que no tenemos más información sobre el asunto. Lo que realmente hará la moneda no importa porque la probabilidad no es una declaración sobre la moneda. Es una declaración sobre nuestro propio conocimiento sobre la moneda.
Hay muchas maneras en que nuestra probabilidad podría diferir de 50-50. Por ejemplo, un artículo de Diaconis, Holmes y Montgomery (ver la página en stanford.edu) dice que las monedas surgen de la misma manera que comenzaron aproximadamente el 51% del tiempo. Entonces, si Alice sabe que el cambio anterior fue cara y ella sabe sobre ese papel, entonces para ella las probabilidades son 51-49. Mientras tanto, Bob no sabe cuál era el estado anterior de la moneda, por lo que sus probabilidades son 50-50. Como otro ejemplo, supongamos que los últimos 50 lanzamientos han sido todos cara. Luego concluimos que la moneda probablemente está sesgada y creemos que el próximo lanzamiento probablemente sea cara. Ver el problema de Sunrise para más.
Para tomar la idea de probabilidad como un conocimiento más profundo, supongamos que Eve está mirando el monedero con una cámara de video y un programa de computadora que usa los datos de video para predecir los lanzamientos de monedas. Luego tiene aún más información que Alice o Bob, y su probabilidad de cómo caerá la moneda es diferente. Con una cámara de baja calidad con poca luz, tal vez pueda predecir la respuesta correcta el 60% del tiempo. Luego, cuando mira la predicción de su computadora y dice “cabezas”, para ella la probabilidad es 60-40. Pero si mejora su software y obtiene una mejor cámara y una mejor iluminación, puede hacer mejores predicciones, y ahora quizás para ella la probabilidad es 90-10, o 99-1, etc. Mientras tanto, Alice y Bob, sin el beneficio de Eve conocimiento especial, todavía tienen sus 50-50 o 51-49 probabilidades; lo que tenían originalmente. Si luego obtienen acceso a la salida del programa de computadora de Eve, sus probabilidades cambian para coincidir con las de Eve.
- ¿Alguna vez habrá un descubrimiento tan fantástico y fundamental que expulse todo del agua?
- Cómo calcular [matemáticas] (a + bi) ^ {c + di} [/ matemáticas]
- ¿Cómo se miden los ángulos entre dimensiones? ¿Cuál sería el ángulo entre 10 dimensiones? De hecho, ¿hay un ángulo específico para dos dimensiones perpendiculares?
- Me acabo de enterar del problema de los cicloides / braquistocronas, y me dejó alucinado. ¿Alguna otra maravilla de matemáticas / física que sea igual o más increíble?
- ¿Cómo es la física diferente de las matemáticas?
Esta idea se usa con frecuencia en física, donde se llama “entropía”. Cuando alguien le da una descripción de un sistema físico que deja mucho fuera (por ejemplo, “es un gas ideal hecho de esta molécula con esta presión y este volumen”), hay mucha entropía. Esa descripción omite toda la información sobre las moléculas individuales y solo ofrece una visión general muy amplia. Pero si le dan una descripción más completa (por ejemplo, “la primera molécula está en este nanómetro cúbico del espacio. La segunda molécula está en este nanómetro cúbico del espacio …”) la entropía es menor. Y si le dieran una descripción completa del estado exacto de cada molécula, la entropía sería cero.
“Entropía” es solo una palabra que significa que no sabes todo sobre el estado del sistema. Para un lanzamiento de moneda sobre el cual no se sabe nada (probabilidad 50-50), la entropía es un bit. Pero si conociera el resultado con una probabilidad del 78.5%, su entropía sería de solo 3/4 de bit, y se diría que tiene 1/4 de bit de información sobre el lanzamiento de la moneda. La información es la cantidad de entropía que ha eliminado con su conocimiento especial, por lo que para este ejemplo, la entropía y la información se suman a un bit. Si conociera el resultado con una probabilidad del 89.0%, tendría medio bit de entropía y medio bit de información. Si conocía el resultado con una precisión del 99.9%, casi no queda entropía. Solo 0.01 bits, y tiene 0.99 bits de información.
Puede encontrar la conversión entre probabilidad y bits con la fórmula de entropía. (ver Entropía) Lanzar dos monedas tendría dos bits de entropía. Elegir un número aleatorio del 1 al 100 tendría 6,64 bits. Cuantas más posibilidades haya, más entropía habrá y más información necesitará para deshacerse de esa entropía y conocer todo sobre el sistema.
Mucha gente piensa que esta idea es extraña. El lanzamiento de la moneda simplemente debe tener una cierta probabilidad asociada. “Vamos”, dice mi interrogador imaginario, “deja de andar por las ramas y solo dime la probabilidad real”. Pero no hay una respuesta real. Cuando Alice dice: “la probabilidad es que el 51% sea cara”, esa no es una declaración sobre la moneda. Es una declaración sobre el alcance del conocimiento de Alice de la moneda. (Alice tiene muy poca información, solo alrededor de 0,0003 bits). Por lo tanto, diferentes personas pueden tener diferentes probabilidades en función de cuánto saben.
Esto no quiere decir que todo vale. Las probabilidades están sujetas a reglas, como que necesitan sumar una. Por lo tanto, no puede decir que, según sus creencias, la moneda tiene un 60% de posibilidades de cara y 60% de posibilidades de cruz (a menos que haya al menos un 20% de posibilidades de cara y cruz simultáneamente, algo que generalmente decimos que tiene cero posibilidades) . Y cuando obtiene nueva información sobre el sistema, debe usarla para actualizar sus probabilidades utilizando la regla de Bayes. Pero las probabilidades en sí mismas no son declaraciones sobre el sistema. Son declaraciones sobre nuestra propia ignorancia.
Nota: La filosofía de esta respuesta todavía se considera controvertida en algunos círculos, pero es la interpretación de la probabilidad lo que actualmente creo que es la mejor. Ver probabilidad bayesiana para más.