No hay “fuerza” o “restricción”.
Creo que puede estar malinterpretando qué tipo de “convergencia” ocurre cuando observamos grandes cantidades de muestras aleatorias.
Digamos que estás lanzando una moneda (regular) repetidamente y contando el número de caras (H) y colas (T). Por lo tanto, su predicción será que obtendrá aproximadamente la mitad H y aproximadamente la mitad T. Sin embargo, esto no es, por supuesto, una regla estricta ; claramente podrías lanzar una moneda 10 veces y obtener 7 caras, o 2 caras, o incluso algo más extremo de vez en cuando. Pero, si seguías volteando el tiempo suficiente, el porcentaje se acercaría al 50%.
- ¿Qué piensan los filósofos de la física de la hipótesis del universo matemático de Max Tegmark?
- ¿Qué dificultades estás experimentando para seguir y comprender la lógica y las matemáticas en la geometría mandalic?
- ¿Qué son las dimensiones temporales múltiples y cuál es su relación con las geometrías impredecibles?
- ¿Qué pasa con la relatividad general, en particular, incita a las personas a exigir una explicación de 'por qué' o 'cómo' funciona?
- ¿El destino y los esfuerzos están interrelacionados o son exclusivos?
Si entiendo su pregunta correctamente, cree que esto significa que, si comenzó con “demasiados” Ts, de alguna manera es más probable que cambie H en el futuro. En el caso de los lanzamientos de monedas, esto no es correcto , y en realidad hay un nombre especial para este tipo de creencia incorrecta: la falacia del jugador.
Entonces, si muchos Ts “tempranos” no implican más Hs “tardíos”, ¿qué está pasando? ¿Qué “te devuelve a la media”? Nada De hecho, en términos absolutos, cuantas más veces lance la moneda, mayor será la diferencia entre los resultados esperados y observados , en términos de número de lanzamientos . Si lanzamos una moneda [matemática] N [/ matemática] veces, la desviación estándar del número de caras es proporcional a [matemática] \ sqrt {N} [/ matemática], que obviamente se hace más grande a medida que se lanzan más monedas. Sin embargo, si estamos viendo porcentajes , estamos tomando el número de caras y dividiendo entre [matemáticas] N [/ matemáticas] . Entonces, la desviación estándar en el porcentaje es proporcional a [math] \ sqrt {N} / N = 1 / \ sqrt {N} [/ math], que se vuelve más pequeña a medida que se lanzan más monedas. Esto es todo lo que significa la ley de los grandes números.
En resumen: no hay nada “que regrese los resultados a la media esperada”, solo se divide entre números cada vez más grandes y, por lo tanto, la desviación de la media se vuelve cada vez menos significativa.
Hasta donde puedo ver, nada de esto tiene nada que ver con el determinismo, de una forma u otra.