FTL – Más rápido que la luz se explica al final de esta respuesta.
Las leyes de la física no pueden estar completamente equivocadas. Están respaldados por resultados experimentales, de lo contrario serían solo especulaciones.
Lo que puede estar “equivocado” es el paradigma que usan, es decir, podría haber una perspectiva diferente que podría hacer que nuestro conocimiento del Universo sea más Fundamental.
El conocimiento fundamental es algo que no se escucha tanto porque actualmente no existe.
A pesar de que todo nuestro conocimiento se basa en lo que llamamos conceptos fundamentales de Energía, Masa, Tiempo, Espacio, Entropía, Acción, no son Fundamentales.
Creé una teoría llamada Teoría del universo hipergeométrico (HU) en la que traté de responder la pregunta: ¿Cuál es el mínimo que debes saber para entender el universo?
Esto puede sonar como el acto del pseudo-físico más perezoso … :). Estoy seguro de que eso es lo que todos dirán.
Mi respuesta a esa pregunta fue:
- Tienes que saber qué son las cosas
- Tienes que saber dónde estarán los próximos
Entonces, me molesté en recrear la física. Entonces, comencé con lo que son las cosas. Mi respuesta estamos hechos de espacio deformado. Más precisamente, estamos hechos de coherencia entre estados estacionarios de deformación de la métrica local.
Perezoso como soy, decidí agrupar las cuatro partículas fundamentales (en mi teoría) (electrón, protón, antiprotón y antielectrón) en una sola construcción. Históricamente, lo hice porque para que se creara la teoría, el electrón tenía que ser un FAT ELECTRON (1 amu). Esta publicación también se llama
La novia en el columpio:
Cuantización del tiempo y el electrón gordo
Cuantización del tiempo y el electrón gordo
Entonces, mi respuesta al ítem 1 fue la propuesta del Dilatador Fundamental.
El dilatador fundamental es una coherencia de deformación, lo que significa que el espacio está cambiando localmente mientras la materia hace un túnel de estado a estado. Además, también gira. La ley más simple posible que rige los dilatadores es que no deberían hacer trabajo (como yo … 🙂
A eso lo llamé Principio Lagrangiano Cuántico (QLP). Establece que los dilatadores no deben dilatar el espacio fuera de fase con los alrededores.
Con esas dos leyes y un simple ansatz para el campo Dilaton, pude derivar X … 🙂 Simplemente defina \ Phi_1 y \ Phi_2, tome la derivada y equípelo a cero, encuentre x:
Una vez que encuentre x, puede pensar, tal vez las Leyes Naturales deberían escribirse con la vista de un Ojo 4D .. 🙂 Para un Ojo 4D, el Dilatador Fundamental se ve así:
Es decir, puede ver las cuatro fases y esto es dulce, ya que provoca el Fat Electron (1 amu)
Estoy siguiendo el camino histórico del descubrimiento. Ha habido algo de pulido (mínimo desde que soy vago).
Entonces, recuperé las Leyes Naturales usando mi Visión 4D y comparé los resultados con nuestras Leyes Naturales. Las leyes naturales, que son empíricas, proporcionan la guía.
Este no es otro paso perezoso. Todos tienen que hacerlo. Einstein ajustó su geodésica a la dinámica celestial newtoniana. Cualquier ley tiene que obedecer las observaciones y las leyes naturales son empíricas y, por lo tanto, representan observaciones.
Te das cuenta de que mencioné 4D Space. El 5D Spacetime y la LIGHTSPEED EXPANDING HYPERSPHERE son el modelo más simple que obedece la Ley de Hubble.
Aquí hay secciones transversales de la hiperesfera expansiva de velocidad de la luz que representa nuestro universo. Vivimos en la hiperesuperficie 3D.
La constante de Hubble se puede expresar simplemente como:
[matemáticas] H_0 = \ frac {c} {R_0} [/ matemáticas]
¿Por qué elegí el modelo más simple?
Se podría decir que eso sucedió porque soy vago .. 🙂 Eso es un poco perjudicial .. 🙂
La razón es que la ciencia es una búsqueda de optimización. Comenzamos por no saber nada y queremos terminar sabiendo todo.
Para obtener la Teoría más Fundamental (que también es la más simple), en cada paso debe usar el paradigma más simple Y de vez en cuando tiene que barajar todo y refundir todo el paradigma más simple que explica el conjunto extendido de observaciones. Eso es lo que estoy tratando de hacer en este momento.
Por lo tanto, consideré si este más simple Lightspeed Expanding Hyperspherical Hypersurface + Fundamental Dilator podría ser un paradigma adecuado para la Física.
Lo primero es derivar las leyes naturales. Cheque
La segunda cosa es ver si estas leyes naturales más la topología simplifican la física actual.
Mi Ley de Gravitación derivada depende tanto de la velocidad como de la época. Esto hace que las supernovas tipo 1a (SN1a) sean dependientes de la época. La razón es porque SN1a dependen de [matemáticas] G ^ {- \ frac {3} {2}} [/ matemáticas]. Detonan cuando alcanzan la misa de Chandrasekhar.
Se requería un paso para llegar a cualquier conclusión. Tuve que calcular la dependencia de la luminosidad absoluta con G. No pude comenzar de nuevo esta derivación, así que busqué un trabajo experto en el campo de Supernova y encontré el trabajo de David Arnett. Derivó la Luminosidad Absoluta para
La curva de luz de la supernova 1987A en contexto
El artículo es genial .. 🙂 Revisión perezosa. Tiene una fórmula para la luminosidad absoluta. La fórmula tiene una superficie integral y otros elementos. Simplemente sucede que no solo la masa SN1a Chandrasekhar es dependiente de G, sino también su radio (Radio Chandrasekhar). A medida que G cambia, la densidad media de densidad no lo hace porque la masa Chandrasekhar tiene una dependencia [matemática] G ^ {- \ frac {3} {2}} [/ matemática] y el radio Chandrasekhar tiene [matemática] G ^ {- \ frac { 1} {2}} [/ math] dependencia. La densidad en el núcleo debe ser igual en cualquier G porque ahí es donde esos electrones comienzan a convertirse en Bosones. Imaginé que en cualquier capa, la presión de la luz y el gas estaría combatiendo la misma presión gravitacional. Tenemos menos masa total en la columna pero tenemos una G. más fuerte. Uno tiene que compensar al otro para que la Enana Blanca sea estable.
Esto significa que bajo una G diferente, la Enana Blanca es solo una cabeza reducida de lo que solía ser … 🙂 pero su luminosidad superficial debería ser la misma. Entonces, puedo escalar el área para obtener potencia radiativa. Extendí ese razonamiento a otras estrellas y lo llamé Covarianza cosmológica. Esto significa que, en promedio, es posible que tenga estrellas más pequeñas en el pasado, pero su luminosidad superficial será la misma. Esto puede o no ser una buena aproximación. Debería ser analizado por personas en el campo … Estoy de paso.
A continuación se muestra la derivación. La mayoría de los componentes de la ecuación de Luminosidad Absoluta derivada por David Arnett tienen una dependencia G simple. La luminosidad absoluta depende de la masa del sol (unidad de masa). Pensé si tenía que escalar eso con G también. Llegué a la conclusión de que debería. No solo eso, sino también que debería considerar todo el régimen asociado con el Sol (hay dos regímenes de gases y radiativos). ¡Ya que estamos hablando de la masa de Supernova (Enana Blanca) en términos de Masa del Sol, la dependencia que se debe usar debe ser el régimen radiativo porque la Supernova es arrastrada por la presión!
A continuación se muestra la derivación:
Esto significa que la Luminosidad Absoluta tiene una dependencia [matemática] G ^ {- 3} [/ matemática]. Eso junto con mi ley de gravitación:
significa que la luminosidad absoluta se reduce con [matemática] R_0 ^ {3} [/ matemática] y que las distancias fotométricas a SN1a están sobreestimadas por [matemática] R_0 ^ {- \ frac {3} {2}} [/ matemática]
HU deriva de la sección transversal anterior (triángulo OAC) una Regla Cosmológica d (z):
Esta es una d (z) sin parámetros ya que R_O es nuestra constante de Hubble [matemáticas] H_0 = \ frac {c} {R_0} [/ matemáticas]
donde H_0 se deriva experimentalmente de mediciones de corta distancia como:
¿¿¿Eso funcionará???
Si. Si trazo el d (z) y luego tomo el conjunto de datos SN1a Survey, escalo sus distancias usando [math] \ frac {R (t)} {R_0} [/ math] para diferentes z obtenemos este resultado:
Este resultado utiliza la distancia calculada en d (z) como R_0 -R (t) donde R_0 es nuestro radio actual de 13.58 mil millones de años luz.
Hay información allí. La información es que la luz decae no con la distancia de línea de visión AC sino con la distancia AB. Esto significa que toda la luz emitida por una época tiene la misma descomposición.
Esto puede ser una sorpresa, pero no debería. Este es el resultado directo de la QLP. QLP es fácil de imaginar cuando considera que dos dilatadores interactúan. La vista es ligeramente diferente cuando consideras todo ese Universo.
Este es uno de los aspectos más desafiantes de mi teoría. Tiene que ver con la naturaleza del vacío. El vacío es polarizable. La luz se propaga por campo electromagnético -> Polarización inducida del vacío (o medio) -> campo EM – por lo que yo llamo PROPAGACIÓN DE HOLOGRAMA HIPERSFÉRICA (HHP).
Esto significa que la luz tiene que viajar con el Universo (con una velocidad radial igual a c). Esto también significa que el EM (que se considera una modulación de posición de fuente del campo de dilaton) se convierte en polarización (polarización de otro dilatador o polarización de vacío). Esa polarización contiene la información de impulso. La inducción posterior (polarización que induce EM) conserva ese impulso. En HU, ese impulso es un impulso 4D.
Puede ver los frentes de onda del fotón 4D en la sección transversal. Solo vemos la proyección 3D de ese fotón 4D:
Recuerde, así es como deduje la d (z).
Observe cómo 4D Spacetime está alineado:
El tiempo apropiado es a lo largo de la dirección [matemática] \ Phi [/ matemática] para el tejido relajado del espacio. Esto significa que el tiempo cambia con la distancia (de manera Hubble Flow).
ERRATA DE POSICIONES MÁS RÁPIDAS QUE LAS LUZ POST_MORTEM ############################################ ########
Cometí un error. Puede aprender de él si sigue este enlace:
FTL REVELADO PARA SER UN ERROR! ERRATA Y POST-MORTEM A continuación por Marco Pereira en Hypergeometrical Universe