Si quisiéramos ser técnicos al respecto, el límite teórico en FPS es 1.855 x 10 ^ 43 Hz … que es básicamente solo 1 / el tiempo de Planck. Sin embargo, esa no es una figura muy significativa en contexto. El Tiempo de Planck es básicamente el período de tiempo más pequeño posible para que una relación de causalidad sea realmente detectable, por lo que la realidad misma opera efectivamente allí.
Hay algunos puntos aquí que no son claramente obvios, pero hay algunos conceptos erróneos sobre los que está trabajando aquí. En primer lugar, no es que el ojo no pueda “ver” por encima de 24 fps, es que el cerebro no puede distinguir inherentemente 24 FPS del movimiento continuo. Y en realidad, esto sucede incluso a niveles más bajos que 24 FPS. Lo que esto corresponde a la latencia del procesamiento de información visual del cerebro. Para la mayoría de los cerebros humanos, esta latencia es bastante grande. Es al menos 1/10 de segundo en promedio. Esta es la razón por la cual el estándar para la animación establecida por Disney es en realidad solo 12 FPS, pero no es raro que las ráfagas de animación en la televisión bajen a 7 FPS (esto generalmente está reservado para cosas como conversaciones donde a nadie realmente le importa sin problemas movimiento tanto como sincronización con el diálogo). Tu cerebro aún junta todo esto como movimiento. Entonces, cuando se dice que el “ojo no puede ver más que xx FPS”, eso es simplemente toro. Lo que significa es que “no necesita renderizar más de xx FPS para registrarse como movimiento”.
La forma en que funciona realmente su conexión ojo-cerebro no es como una cámara digital donde un sensor simplemente se expone a la luz y se obtiene una imagen directa. Una mejor analogía … piense en la forma en que las cámaras CCD pueden tener un obturador global que expone todo el sensor a la vez y los sensores CMOS tienen un obturador enrollable donde se exponen unas pocas líneas a la vez y “rueda” por el espacio del sensor … bueno, tu ojo tiene un obturador estocástico . Se expone una dispersión aleatoria de pocos píxeles (aproximadamente el 1% del sensor) en cualquier momento dado, pero un pequeño intervalo más tarde, se expone una selección aleatoria diferente de píxeles, y así sucesivamente, y esto básicamente siempre está sucediendo (por ejemplo, estás capturando video). Cualquier píxel dado, una vez expuesto, no se puede usar en otra exposición hasta que se “caliente” nuevamente, lo que en algunos casos podría tomar hasta un segundo completo, pero todavía hay otros píxeles expuestos mientras se produce ese retraso, por lo que no como si tus ojos dejaran de funcionar en los huecos.
- Como investigador, ¿realiza una copia de seguridad de sus datos (trabajo y conjuntos de datos) en SSD o HDD?
- ¿Puede un científico promover la evolución como ciencia comprobada y rechazar completamente la Santa Biblia sin violar los principios científicos?
- ¿Existen estudios causales (no solo correlativos) que demuestren que las personas violentas / abusadores de niños / violadores / etc. son así porque fueron víctimas del mismo comportamiento?
- La base fundamental del crecimiento científico es el escepticismo. ¿Por qué la gente quiere aferrarse a las teorías como si fueran un hecho?
- ¿Cómo se pronostica con precisión el futuro? ¿Existe un proceso científico que uno pueda seguir?
Su cerebro reúne todo esto para crear una imagen … pero una cosa que puede notar es que su ojo puede tardar un tiempo en obtener una imagen razonable (por eso tiene esa latencia en el procesamiento que causa persistencia de la visión). Cada pequeña cantidad aleatoria de píxeles se expone en momentos ligeramente diferentes, pero aún cuando están muy juntos, aún se está recopilando información en un intervalo de tiempo muy fino. Entonces, incluso si dicha persistencia de la visión significa que está completamente engañado para ver imágenes fijas separadas por 1/12 de segundo como un movimiento suave, su cerebro aún está reuniendo y reconstruyendo información visual que se detectó en los espacios entre esos espacios de 1/12 de segundo .
Esta información adicional, por cierto, es lo que percibimos como desenfoque de movimiento. Y es por eso que cuando jugamos un juego antiguo que no exhibía ningún desenfoque de movimiento explícito, podemos ver la diferencia entre, por ejemplo, 24 fps y 30 fps y 60 fps y 120 fps, y así sucesivamente. E incluso para los videojuegos más modernos que intentan simular el desenfoque de movimiento con convoluciones direccionales, la velocidad de fotogramas más alta todavía se ve más suave porque los métodos que tenemos para hacer el desenfoque de movimiento siguen siendo un poco artificiales … para darle un resultado más creíble porque su propio cerebro juntará parte de ese desenfoque.
Además, los efectos de encofrado como los que mencionó Zane se deben a su capacidad para enfocar su atención y lo que sucede es que su cerebro básicamente está filtrando parte de la información que reunió. En realidad, no es consistente porque las cosas pueden entrar y salir de foco si pierde la concentración, y también porque los conos en el centro del ojo frente a las varillas en la periferia simplemente se usan (es decir, se procesan de manera diferente). Sin embargo, también puedes hacer esto conscientemente. Sin embargo, este también es un proceso estocástico, por lo que no es tan “bien formado” y “regular” como sucede en una cámara.
Esto es similar al “ángulo de obturación” en la realización de películas. La mayoría de las películas regulares de acción en vivo se graban con lo que se llama un “obturador de 180 grados”. Esta es una referencia a los viejos tiempos cuando los obturadores de las cámaras de películas eran discos de tela que giraban para exponer o cubrir la película. La tela tendría un recorte que era básicamente un cierto número de grados de arco en el disco, y el valor predeterminado es 180 grados (o la mitad del círculo). Lo que eso realmente significa es que la película que rodaba a 24 fps solo estaba realmente expuesta durante 1/2 de cada 1/24 de segundo (es decir, 1/48 de segundo), y no expuesta durante la otra mitad. Replicamos esto en cámaras digitales configurando la velocidad de cuadros a 24 Hz y configurando la velocidad de obturación a 1/48 como regla general. Recientemente se han realizado algunos experimentos con cámaras de alta velocidad de cuadros (por ejemplo, 120 fps y superiores) en las que hemos encontrado buenos resultados con obturadores de 360 grados (es decir, la exposición es el lapso de tiempo completo del cuadro). Una de las cosas acerca de esa solución es que puede elegir y elegir cuando baja a, por ejemplo, 24 fps, puede decir que quiero sumar todos los cuadros o que quiero mezclar 25% o 60% y Obtenga más o menos información general sobre el desenfoque de movimiento en el cuadro. Para las cámaras de película, el problema principal con los obturadores de 360 grados es que no solo captura el desenfoque de movimiento de la escena, sino que también captura el desenfoque de movimiento del fotograma de la película que se quita del camino. Un obturador de 180 grados permite que la película se exponga solo durante un período en el que se sabe que el fotograma de la película está parado (lo cual es posible debido al movimiento de “carrete de trinquete” (por falta de una palabra mejor) del carrete.
Una de las razones por las que normalmente no hacemos obturadores de 360 grados incluso en la era digital (aparte de las razones heredadas y que la gente espera el aspecto de la película) es que el “final” del desenfoque de un cuadro es propenso a extenderse en parte en el “inicio” del desenfoque en el siguiente, lo que puede hacer que las cosas se vean demasiado borrosas. Aunque este es un problema muy aparente con la grabación de 24 a 30 fps, en realidad no es tan evidente cuando se llega a 120 fps en adelante. Esta comprensión sugiere que cuando obtienes mucho más alto que 120–240 Hz (este último es un obturador de 180 grados para 120 Hz), estás en el reino de los rendimientos decrecientes cuando se trata de proporcionar más información visual a la vista. No es que no haya nada que proporcionar, pero no da buenos resultados en términos de “explotar el byte”.