A pesar de un título pegadizo, la publicación me dejó sin ser persuadido por dos razones. Ningún factor predominante, como la falsabilidad o la simplicidad, decide la bondad de un modelo teórico. La falsificación de múltiples teorías simples es una estrategia racional de investigación en circunstancias adecuadas. Promueve la acumulación de datos experimentales y eventualmente puede conducir a un avance científico.
El Dr. Hossenfelder describe aquí un fenómeno real: proliferación de artículos escritos rápidamente, superficiales o fácilmente falsificables en física teórica. ¿Por qué muchos artículos teóricos se dedican a variaciones consentidas sobre temas de moda, o a modestas extensiones de la teoría bien establecida? La reacción inversa plantea una pregunta válida, pero tenga en cuenta que puede haber buenas motivaciones detrás del trabajo teórico de este tipo.
Tenga en cuenta que la publicación no explica claramente qué constituye un modelo teórico viable o cómo encontrar uno. Caracterizó todo el campo de la física teórica de partículas en pinceladas amplias, sin un guiño a la diversidad de este extenso campo y su papel positivo general en la orientación de experimentos exitosos y rentables.
- ¿Cuál es el significado de SUSY haciendo que las fortalezas de las interacciones fuertes, débiles y EM se crucen bien a 10 ^ 16 GeV?
- ¿Hay dimensiones distintas a la nuestra, sentados en el mismo lugar en el que estamos pero no podemos sentirlos, tocarlos o verlos?
- ¿Cuáles son las últimas teorías sobre la superconductividad a alta temperatura?
- ¿Podríamos ser seres multidimensionales cuya percepción se limita a tres dimensiones?
- ¿Cuál es la intuición detrás del cambio métrico que significa que los objetos se atraen entre sí?
Sobre el primer punto, podríamos tener una visión pragmática, mediante la cual un buen modelo posee la combinación correcta de varias características para sobrevivir bajo la selección natural. Un modelo científico es, en esencia, una representación comprimida de los datos de observaciones empíricas que se organiza de acuerdo con la lógica científica (inferencia estadística) y se limpia de creencias subjetivas y concepciones redundantes. El mejor modelo logra un equilibrio entre varias características deseables y, a veces, contradictorias, incluida la falsabilidad, pero también la veracidad empírica, la simplicidad, la integridad y el poder predictivo. La optimización del modelo depende del contexto en el que se utiliza. Un modelo generalmente evoluciona bajo la influencia de nuevos datos. [¡La falsificación de supuestos obsoletos es un fuerte impulsor de la evolución!] El modelo no tiene que ser siempre correcto, solo dar respuestas satisfactorias dentro de su rango de aplicabilidad.
Algunos modelos se construyen según un principio fundamental profundo y luego se validan mediante un experimento. A veces, el experimento se adelanta a la teoría y luego es imperfecto, pero los modelos sistemáticos siguen siendo muy útiles para guiar la recopilación de datos experimentales. Recordemos que la cosmología geocéntrica ptolemaica, una de las primeras teorías científicas, tuvo bastante éxito en la sistematización de observaciones astronómicas durante 1500 años. El corpus acumulado de registros de observación eventualmente creó condiciones favorables para la revolución copernicana. Por lo tanto, un modelo no necesita ser perfecto para impulsar la recopilación de datos empíricos informativos que luego pueden ser reinterpretados en un mejor marco teórico.
Lo que resulta de esto es que la construcción de modelos teóricos debe seguir ciertas reglas para construir modelos prácticamente viables. Muchos creadores de modelos siguen intuitivamente estas reglas al preferir modelos ‘hermosos’ o ‘naturales’. Se decepcionan si tal modelo no se realiza en la naturaleza. Por ejemplo, la ‘supergravedad mínima de baja energía’, desarrollada con gran detalle en el transcurso de tres décadas debido a sus rasgos atractivos, fue falsificada por las observaciones del colisionador hace unos años. Pero este modelo pronto se adaptó liberando algunos parámetros adicionales para evitar la falsificación, al precio de perder algo de simplicidad y poder predictivo.
Por el momento, vemos claras indicaciones de incompletitud del Modelo Estándar de partículas elementales, sin embargo, no se identifica ningún modelo único que extienda el Modelo Estándar y conserve todas las características deseables. En esta situación, la comunidad teórica debe explorar una variedad de alternativas para buscar indicios de posibles nuevas direcciones en las que nuestro conocimiento de los fundamentos de la naturaleza se puede ampliar. Dicha exploración es parte de un programa integral en el Gran Colisionador de Hadrones y en otros experimentos de alta energía. De hecho, el LHC produce una gran cantidad de datos únicos que pueden probar una variedad de escenarios teóricos. El problema es que los científicos no saben a priori qué firma experimental puede mostrar la primera indicación de una nueva física, o qué modelo teórico alternativo lo explicará. Lo que realmente sucede es que muchos científicos analizan las extensiones ‘directas’ del Modelo Estándar, mientras que otros trabajan en estudios a largo plazo que eventualmente pueden apuntar a un avance fundamental. Los investigadores y las agencias de financiación se reúnen periódicamente en los ejercicios de planificación comunitaria para decidir cómo distribuir los esfuerzos entre estas direcciones. Los experimentos de partículas, que son como las luces de la calle en la oscuridad de lo desconocido, a menudo invitan a búsquedas justo fuera de los círculos iluminados. Dado el alcance de lo desconocido, puede ser más fácil explorarlo en pasos incrementales, recordando que algunos descubrimientos pasados en física de partículas ocurrieron como momentos de “¿Quién ordenó eso?”.
En última instancia, existen motivaciones económicas para que el campo de construcción de modelos funcione como lo hace. Muchos trabajos teóricos están escritos por estudiantes graduados y postdoctorados que deben completar y publicar su investigación dentro de los límites de tiempo de sus estudios y citas de trabajo. En el modelo económico actual adoptado en física de alta energía, la mayoría de estos jóvenes investigadores capaces finalmente encuentran trabajos permanentes fuera de la academia. Piense en un ejército de soldados de a pie, con solo unos pocos que se convertirán en oficiales al mando (profesores). Contribuyen mucho al progreso en física teórica, mientras que sus trabajos individuales tienen pocas posibilidades de producir el próximo avance dentro de sus limitaciones de tiempo. El consuelo de esta lamentable contradicción es que, como comunidad, los físicos teóricos aprenden de una serie de publicaciones individuales. Se está acumulando nuevo conocimiento; Los jóvenes teóricos deben sentirse orgullosos de su contribución a la exploración del micro mundo, mientras que es el deber de la comunidad de investigación garantizar que el talento y los sacrificios de los investigadores junior no se desperdicien. [Las revistas deben ser más selectivas en la publicación de investigaciones especulativas. La comunidad debe hacer un mejor trabajo para evitar las burbujas especulativas, cuando se escribe un número excesivo de artículos sobre un tema en última instancia frívolo, y que tiene el impacto más negativo en los colaboradores menores.] La participación de los estudiantes y los posdoctorados les brinda numerosas oportunidades de personal. crecimiento, comenzando con la construcción de su integridad científica. La capacitación de jóvenes profesionales que trabajarán en muchos campos STEM es un componente esencial de la operación del LHC. Junto con la misión de descubrimiento central del LHC, la capacitación produce un retorno positivo general del LHC sobre la inversión (M. Florio et al., ArXiv: 1507.05638, arXiv: 1603.00886). Además de avanzar en la ciencia, la construcción de modelos a menudo es un ejercicio de capacitación que desarrolla habilidades individuales para carreras STEM. La física de partículas está viva y evoluciona.