Por el momento tenemos un modelo de la historia del universo que funciona prácticamente más o menos. Este es el modelo [math] \ Lambda CDM [/ math] ([math] \ Lambda [/ math] es la constante cosmológica, interpretada como energía oscura, y el CDM se refiere a Cold Dark Matter (la existencia de materia oscura, pero dijo materia que tiene velocidades relativamente bajas / energía térmica considerada en su conjunto).
Este modelo se ha desarrollado a lo largo del tiempo y utilizando datos de una variedad de fuentes, y funciona para explicar tanto lo que vemos como cómo llegó a este estado. Pero es el resultado de manipular varias ‘perillas’ en el modelo para que se ajuste a estas observaciones. ¡Cada vez que ajuste varios parámetros para que se ajusten a sus datos, es importante que sospeche del resultado!
Sin embargo, el hecho de que podamos obtener ‘configuraciones’ similares en las ‘perillas’ usando diferentes combinaciones / fuentes de datos es tranquilizador, y el hecho de que no hayamos encontrado un modelo o una parametrización diferente que funcione tan bien también ha respaldado a la aceptación de [math] \ Lambda CDM [/ math]
- ¿Dónde comenzó el Big Bang si antes no había espacio? ¿No comenzaría en todas partes y, por lo tanto, no tendría a dónde expandirse?
- ¿Dónde está el punto final del universo?
- ¿Cómo se determinó que la longitud de nuestra galaxia era de unos 150,000 años luz?
- ¿Por qué existe el universo en lugar de nada?
- Cuando una nube de materia oscura acumula más materia oscura, ¿crece la nube?
Pero esto realmente no es el todo y el fin de la cosmología. Si los datos que utilizamos para desarrollar [math] \ Lambda CDM [/ math] son defectuosos, entonces definitivamente es un momento de “regreso a la mesa de dibujo”. Pero no es un momento de “despedir a los ingenieros” o “desechar el proyecto”. El marco básico probablemente todavía sea sólido (¡aunque eso se vería mucho más!) Y solo necesitamos ver qué detalles nos perdimos o estropeamos en el camino. Tal vez se sugiera un modelo completamente diferente. Probablemente una variante con, quizás, algunos indicios emocionantes de nuevas direcciones para explorar aparecerían en su lugar.
Pero todo esto es un poco prematuro. El estándar 5 sigma es muy riguroso (menos de una posibilidad en un millón de que los datos se deban a una casualidad en lugar de ser reales). Con la confianza reducida de ‘3 sigmas’, solo hay un 99.7% de posibilidades de que los datos sean correctos y, por lo tanto, una probabilidad en aproximadamente 300 de que realmente necesitemos cambiar nuestro modelo. Ciertamente podría suceder … pero no es muy probable en términos absolutos. Entonces sería solo una llamada para reconocer que deberíamos ser un poco menos arrogantes al tener un modelo que funcione: existe (si esto es correcto) una posibilidad real pero pequeña de que estemos equivocados.
La comparación con la esperanza de desvanecimiento de la partícula 750GeV en el CERN es engañosa, por cierto. En el CERN hay una enorme cantidad de datos que fluyen y, por lo tanto, las probabilidades de que ocurran coincidencias improbables son extremadamente altas. Baja probabilidad pero muchas posibilidades significan una alta probabilidad de que al menos una cosa suceda por casualidad (al igual que con millones de boletos vendidos, es casi seguro que alguien elija el número ganador en la lotería, aunque las posibilidades de que una persona gane son bajas) .
Pero los datos de supernova son un conjunto relativamente pequeño de datos para una sola cosa, y las posibilidades de que ocurra algo de baja probabilidad también son bajas, como resultado. Entonces, aunque es bastante probable que la partícula de 750 GeV sea un artefacto, la certeza reducida dejaría bastante probable que la aceleración de la expansión del universo sea real … incluso si es menos seguro de lo que pensábamos.