¿Cómo responden los físicos teóricos de partículas a ‘Cómo Popper mató la física de partículas’ de Sabine Hossenfelder?

A pesar de un título pegadizo, la publicación me dejó sin ser persuadido por dos razones. Ningún factor predominante, como la falsabilidad o la simplicidad, decide la bondad de un modelo teórico. La falsificación de múltiples teorías simples es una estrategia racional de investigación en circunstancias adecuadas. Promueve la acumulación de datos experimentales y eventualmente puede conducir a un avance científico.

El Dr. Hossenfelder describe aquí un fenómeno real: proliferación de artículos escritos rápidamente, superficiales o fácilmente falsificables en física teórica. ¿Por qué muchos artículos teóricos se dedican a variaciones consentidas sobre temas de moda, o a modestas extensiones de la teoría bien establecida? La reacción inversa plantea una pregunta válida, pero tenga en cuenta que puede haber buenas motivaciones detrás del trabajo teórico de este tipo.

Tenga en cuenta que la publicación no explica claramente qué constituye un modelo teórico viable o cómo encontrar uno. Caracterizó todo el campo de la física teórica de partículas en pinceladas amplias, sin un guiño a la diversidad de este extenso campo y su papel positivo general en la orientación de experimentos exitosos y rentables.

Sobre el primer punto, podríamos tener una visión pragmática, mediante la cual un buen modelo posee la combinación correcta de varias características para sobrevivir bajo la selección natural. Un modelo científico es, en esencia, una representación comprimida de los datos de observaciones empíricas que se organiza de acuerdo con la lógica científica (inferencia estadística) y se limpia de creencias subjetivas y concepciones redundantes. El mejor modelo logra un equilibrio entre varias características deseables y, a veces, contradictorias, incluida la falsabilidad, pero también la veracidad empírica, la simplicidad, la integridad y el poder predictivo. La optimización del modelo depende del contexto en el que se utiliza. Un modelo generalmente evoluciona bajo la influencia de nuevos datos. [¡La falsificación de supuestos obsoletos es un fuerte impulsor de la evolución!] El modelo no tiene que ser siempre correcto, solo dar respuestas satisfactorias dentro de su rango de aplicabilidad.

Algunos modelos se construyen según un principio fundamental profundo y luego se validan mediante un experimento. A veces, el experimento se adelanta a la teoría y luego es imperfecto, pero los modelos sistemáticos siguen siendo muy útiles para guiar la recopilación de datos experimentales. Recordemos que la cosmología geocéntrica ptolemaica, una de las primeras teorías científicas, tuvo bastante éxito en la sistematización de observaciones astronómicas durante 1500 años. El corpus acumulado de registros de observación eventualmente creó condiciones favorables para la revolución copernicana. Por lo tanto, un modelo no necesita ser perfecto para impulsar la recopilación de datos empíricos informativos que luego pueden ser reinterpretados en un mejor marco teórico.

Lo que resulta de esto es que la construcción de modelos teóricos debe seguir ciertas reglas para construir modelos prácticamente viables. Muchos creadores de modelos siguen intuitivamente estas reglas al preferir modelos ‘hermosos’ o ‘naturales’. Se decepcionan si tal modelo no se realiza en la naturaleza. Por ejemplo, la ‘supergravedad mínima de baja energía’, desarrollada con gran detalle en el transcurso de tres décadas debido a sus rasgos atractivos, fue falsificada por las observaciones del colisionador hace unos años. Pero este modelo pronto se adaptó liberando algunos parámetros adicionales para evitar la falsificación, al precio de perder algo de simplicidad y poder predictivo.

Por el momento, vemos claras indicaciones de incompletitud del Modelo Estándar de partículas elementales, sin embargo, no se identifica ningún modelo único que extienda el Modelo Estándar y conserve todas las características deseables. En esta situación, la comunidad teórica debe explorar una variedad de alternativas para buscar indicios de posibles nuevas direcciones en las que nuestro conocimiento de los fundamentos de la naturaleza se puede ampliar. Dicha exploración es parte de un programa integral en el Gran Colisionador de Hadrones y en otros experimentos de alta energía. De hecho, el LHC produce una gran cantidad de datos únicos que pueden probar una variedad de escenarios teóricos. El problema es que los científicos no saben a priori qué firma experimental puede mostrar la primera indicación de una nueva física, o qué modelo teórico alternativo lo explicará. Lo que realmente sucede es que muchos científicos analizan las extensiones ‘directas’ del Modelo Estándar, mientras que otros trabajan en estudios a largo plazo que eventualmente pueden apuntar a un avance fundamental. Los investigadores y las agencias de financiación se reúnen periódicamente en los ejercicios de planificación comunitaria para decidir cómo distribuir los esfuerzos entre estas direcciones. Los experimentos de partículas, que son como las luces de la calle en la oscuridad de lo desconocido, a menudo invitan a búsquedas justo fuera de los círculos iluminados. Dado el alcance de lo desconocido, puede ser más fácil explorarlo en pasos incrementales, recordando que algunos descubrimientos pasados ​​en física de partículas ocurrieron como momentos de “¿Quién ordenó eso?”.

En última instancia, existen motivaciones económicas para que el campo de construcción de modelos funcione como lo hace. Muchos trabajos teóricos están escritos por estudiantes graduados y postdoctorados que deben completar y publicar su investigación dentro de los límites de tiempo de sus estudios y citas de trabajo. En el modelo económico actual adoptado en física de alta energía, la mayoría de estos jóvenes investigadores capaces finalmente encuentran trabajos permanentes fuera de la academia. Piense en un ejército de soldados de a pie, con solo unos pocos que se convertirán en oficiales al mando (profesores). Contribuyen mucho al progreso en física teórica, mientras que sus trabajos individuales tienen pocas posibilidades de producir el próximo avance dentro de sus limitaciones de tiempo. El consuelo de esta lamentable contradicción es que, como comunidad, los físicos teóricos aprenden de una serie de publicaciones individuales. Se está acumulando nuevo conocimiento; Los jóvenes teóricos deben sentirse orgullosos de su contribución a la exploración del micro mundo, mientras que es el deber de la comunidad de investigación garantizar que el talento y los sacrificios de los investigadores junior no se desperdicien. [Las revistas deben ser más selectivas en la publicación de investigaciones especulativas. La comunidad debe hacer un mejor trabajo para evitar las burbujas especulativas, cuando se escribe un número excesivo de artículos sobre un tema en última instancia frívolo, y que tiene el impacto más negativo en los colaboradores menores.] La participación de los estudiantes y los posdoctorados les brinda numerosas oportunidades de personal. crecimiento, comenzando con la construcción de su integridad científica. La capacitación de jóvenes profesionales que trabajarán en muchos campos STEM es un componente esencial de la operación del LHC. Junto con la misión de descubrimiento central del LHC, la capacitación produce un retorno positivo general del LHC sobre la inversión (M. Florio et al., ArXiv: 1507.05638, arXiv: 1603.00886). Además de avanzar en la ciencia, la construcción de modelos a menudo es un ejercicio de capacitación que desarrolla habilidades individuales para carreras STEM. La física de partículas está viva y evoluciona.

El criterio de falsabilidad de Popper no tiene mucho sentido si las teorías en cuestión no son DEDUCTIVAS:

Karl Popper: “De acuerdo con el punto de vista que se presentará aquí, el método de probar críticamente las teorías, y seleccionarlas de acuerdo con los resultados de las pruebas, siempre procede en las siguientes líneas. De una nueva idea planteada tentativamente, y aún no justificado de cualquier manera, una anticipación, una hipótesis, un sistema teórico o lo que usted quiera, las conclusiones se extraen mediante DEDUCCIÓN LÓGICA. Estas conclusiones se comparan entre sí y con otras declaraciones relevantes, para encontrar qué relaciones lógicas (como equivalencia, derivabilidad, compatibilidad o incompatibilidad) existen entre ellos. Podemos, si queremos, distinguir cuatro líneas diferentes a lo largo de las cuales se pueda llevar a cabo la prueba de una teoría. Primero, hay una comparación lógica de las conclusiones entre ellos, por donde se prueba la consistencia interna del sistema. En segundo lugar, se investiga la forma lógica de la teoría, con el objeto de determinar si tiene el carácter de un n teoría empírica o científica, o si es, por ejemplo, tautológica. En tercer lugar, existe la comparación con otras teorías, principalmente con el objetivo de determinar si la teoría constituiría un avance científico si sobreviviera a nuestras diversas pruebas, y finalmente, existe la prueba de la teoría a través de aplicaciones empíricas de las conclusiones que puede derivarse de él. “The Logic of Scientific Discovery, p. 9 https://www.amazon.com/Logic-Sci

Excepto por la relatividad especial, los modelos y las teorías en la física moderna son empíricos, no deductivos. El método por el cual se obtienen es “adivinar la ecuación”, no “deducir la ecuación”:

Richard Feynman: “Dirac descubrió las leyes correctas para la mecánica cuántica de la relatividad simplemente adivinando la ecuación. El método de adivinar la ecuación parece ser una forma bastante efectiva de adivinar nuevas leyes”. http://dillydust.com/The%20Chara

A continuación, Einstein define dos tipos de teoría, empírica y deductiva, y es incuestionable que las ecuaciones de una teoría deductiva sí importan. El problema es: ¿Las ecuaciones de una teoría EMPÍRICA son importantes en física?

Albert Einstein: “Desde un punto de vista teórico sistemático, podemos imaginar que el proceso de evolución de una ciencia empírica es un proceso continuo de inducción. Las teorías se desarrollan y se expresan en una breve brújula como declaraciones de un gran número de observaciones individuales en la forma de las leyes empíricas, a partir de las cuales se pueden determinar las leyes generales por comparación. Considerado de esta manera, el desarrollo de una ciencia tiene cierta semejanza con la compilación de un catálogo clasificado. Es, por así decirlo, una empresa puramente empírica. Pero este punto de vista de ninguna manera abarca todo el proceso real, ya que se desliza sobre la parte importante que desempeña la intuición y el pensamiento deductivo en el desarrollo de una ciencia exacta. Tan pronto como una ciencia ha emergido de sus etapas iniciales, teórica los avances ya no se logran simplemente mediante un proceso de arreglo: guiado por datos empíricos, el investigador desarrolla un sistema de pensamiento que, en general, se construye lógicamente de un pequeño número de supuestos fundamentales, los llamados axiomas “. https://www.marxists.org/referen

Las ecuaciones de una teoría empírica (no deberían) importar en física. Cualquier ecuación de este tipo, junto con sus implicaciones, forma un grupo local que no tiene conexiones lógicas con nada más en física teórica. Las “cuatro líneas diferentes de Popper a lo largo de las cuales podría llevarse a cabo la prueba de una teoría” obviamente no tienen sentido en el caso de una teoría empírica.

A diferencia de la relatividad especial, la relatividad general de Einstein no es una teoría deductiva. Es una mezcla empírica que ni siquiera está mal: una combinación maleable de ecuaciones ad hoc y factores falsos que permiten a los einsteinianos predecir lo que quieran. Su creación marcó la transición del deductivismo al empirismo en física, o de “deducir la ecuación” a “adivinar la ecuación”. Einstein y sus amigos matemáticos pasaron años incansablemente “adivinando la ecuación” hasta que se alcanzó un “excelente acuerdo con la observación”:

Michel Janssen: “Pero, como sabemos por una carta a su amigo Conrad Habicht del 24 de diciembre de 1907, uno de los objetivos que Einstein se propuso desde el principio, era utilizar su nueva teoría de la gravedad, sea lo que sea. , para explicar la discrepancia entre el movimiento observado del perihelio del planeta Mercurio y el movimiento predicho sobre la base de la teoría gravitacional newtoniana. […] La teoría de Einstein-Grossmann, también conocida como la teoría “Entwurf” (“esquema”) después del título del artículo de Einstein y Grossmann, de hecho, ya está muy cerca de la versión de la relatividad general publicada en noviembre de 1915 y constituye un enorme avance sobre el primer intento de Einstein de una teoría generalizada de la relatividad y la teoría de la gravitación publicada en 1912. El avance crucial había sido que Einstein había reconocido que el campo gravitacional, o, como diríamos ahora, el campo inercio-gravitacional, no debería describirse por una velocidad variable de la luz, ya que él anuncio intentado en 1912, pero por el llamado campo tensor métrico. El tensor métrico es un objeto matemático de 16 componentes, 10 de los cuales independientes, que caracterizan la geometría del espacio y el tiempo. De esta manera, la gravedad ya no es una fuerza en el espacio y el tiempo, sino parte del tejido del espacio y el tiempo en sí: la gravedad es parte del campo inercio-gravitacional. Einstein había recurrido a Grossmann en busca de ayuda con las matemáticas difíciles y desconocidas necesarias para formular una teoría en este sentido. […] Einstein no abandonó la teoría de Einstein-Grossmann una vez que estableció que no podía explicar completamente la anomalía de Mercurio. Continuó trabajando en la teoría y nunca mencionó el resultado decepcionante de su trabajo con Besso impreso. Así que Einstein no hizo lo que el influyente filósofo Sir Karl Popper afirmó que todos los buenos científicos hacen: una vez que encuentran una refutación empírica de su teoría, la abandonan y vuelven a la mesa de dibujo. […] El 4 de noviembre de 1915, presentó un documento a la Academia de Berlín que retracta oficialmente las ecuaciones de Einstein-Grossmann y las reemplaza por otras nuevas. El 11 de noviembre, siguió una breve adición a este documento, una vez más cambiando sus ecuaciones de campo. Una semana después, el 18 de noviembre, Einstein presentó el documento que contenía su célebre explicación del movimiento del perihelio de Mercurio sobre la base de esta nueva teoría. Otra semana después, cambió las ecuaciones de campo una vez más. Estas son las ecuaciones que todavía se usan hoy. Este último cambio no afectó el resultado para el perihelio de Mercurio. Besso no es reconocido en el artículo de Einstein sobre el problema del perihelio. Aparentemente, la ayuda de Besso con este problema técnico no había sido tan valiosa para Einstein como su papel como caja de resonancia que le había valido a Besso el famoso reconocimiento en el documento especial de relatividad de 1905. Sin embargo, un reconocimiento hubiera sido apropiado. Después de todo, lo que Einstein había hecho esa semana en noviembre, era simplemente rehacer el cálculo que había hecho con Besso en junio de 1913, usando sus nuevas ecuaciones de campo en lugar de las ecuaciones de Einstein-Grossmann. No es difícil imaginar la emoción de Einstein cuando insertó los números de Mercurio en la nueva expresión que encontró y el resultado fue 43 “, en excelente acuerdo con la observación”. https://netfiles.umn.edu/users/j

“Adivinar la ecuación” es, naturalmente, seguido de “adivinar el factor dulce”. En el siguiente video, a las 0:57, se agrega un factor fudge a una ecuación en un modelo empírico (relatividad general de Einstein), luego a las 2:16 se elimina el factor fudge:

https://www.sciencechannel.com/t
LOS SECRETOS MÁS PROFUNDOS DEL ESPACIO “El mayor error de Einstein”

“Un factor fudge es una cantidad ad hoc introducida en un cálculo, fórmula o modelo para que se ajuste a las observaciones o expectativas. Los ejemplos incluyen la constante cosmológica de Einstein …” https://en.wikipedia.org/wiki/Fu

¿Se puede agregar un factor fudge análogo a la constante cosmológica de las ecuaciones de transformación de Lorentz? Uno no puede, y la razón es simple: la relatividad especial es deductiva (a pesar de que un postulado falso y un argumento inválido lo estropearon desde el principio) y la falsificación es imposible por definición: uno no tiene derecho a agregar nada que no sea deducible del postulados

Hoy en día, a excepción de la relatividad especial, las teorías y los modelos en física son empíricos, no deductivos; no pueden presentarse como un conjunto de argumentos válidos construidos lógicamente a partir de un pequeño número de axiomas simples (postulados). Esto los hace imposibles de verificar a priori. Solo las teorías deductivas (modelos) pueden falsificarse, ya sea de forma lógica o experimental. Es decir:

1. Se puede verificar la validez de los argumentos.

2. Se puede aplicar el procedimiento reductio-ad-absurdum.

3. Mostrar, experimentalmente, que un postulado o una consecuencia deducida es falso tiene sentido: la estructura deductiva permite interpretar la falsedad en términos de toda la teoría. (En ausencia de una estructura deductiva, cualquier falsedad o absurdo detectado sigue siendo insignificante; uno puede ignorarlo o “arreglarlo” de alguna manera, por ejemplo, introduciendo un factor fudge).

La única alternativa al deductivismo es el empirismo: las teorías son esencialmente equivalentes a los “modelos empíricos” definidos aquí:

“El objetivo del ajuste de la curva es describir teóricamente los datos experimentales con un modelo (función o ecuación) y encontrar los parámetros asociados con este modelo. Los modelos de mayor importancia para nosotros son modelos mecanicistas. Los modelos mecanicistas están específicamente formulados para proporcionar información sobre un proceso químico, biológico o físico que se cree que gobierna el fenómeno en estudio Los parámetros derivados de los modelos mecanicistas son estimaciones cuantitativas de las propiedades del sistema real (constantes de velocidad, constantes de disociación, velocidades catalíticas, etc.) Es importante distinguir los modelos mecanicistas de modelos empíricos que son funciones matemáticas formuladas para ajustarse a una curva particular pero cuyos parámetros no corresponden necesariamente a una propiedad biológica, química o física “. http://collum.chem.cornell.edu/d

Pentcho Valev

El argumento de Hossenfelder es complicado hasta el punto de ser tan intrincado que pierde su propio punto.

En su intento de crear corrientes cruzadas dramáticas, no se acomoda a la claridad existencial necesaria para evaluar lo que es, sin duda, una pregunta muy importante: ¿la falsabilidad valida la física teórica?

Simpatizo con ella. Creo que ella está en el camino correcto. Pero claramente está demasiado atada a sus propios críticos para montar un argumento persuasivo y no reactivo.

La razón por la que los críticos son tan ruidosos al respecto (y lo son) es que la cuestión de la falsabilidad central se extiende mucho más allá de la física teórica, y nadie quiere la gran responsabilidad de ver eso a plena luz del día.

De mi respuesta a Si la historia no es ciencia, ¿cómo se acercó Karl Popper a la literatura científica donde se documentaron resultados experimentales anteriores?

El problema es que poner en tela de juicio la validez del historicismo científico (apoyarse en el razonamiento de los gigantes) parece ser un argumento de pendiente resbaladiza en el que todos los hechos científicos terminan siendo rechazados. La forma lógica de evitar este problema es tratar la ciencia y los hechos científicos como algo separado.

Hacemos esto cuando reconocemos que la ciencia y sus estructuras no son diferentes a cualquier otro esfuerzo humano sujeto a la debilidad humana. No hay gran secreto allí.

Pero hay un inconveniente. A medida que la ciencia ayuda a aumentar la estima por su autoproclamada objetividad, sus debilidades están sujetas al perdón categórico debido a la objetividad del método subyacente. Una tautología cultural que protege la autoridad científica, no solo su base objetiva sino también su red de debilidades humanas.

Se puede hacer un argumento similar, aunque no sobre la objetividad, sobre dogmas de ningún tipo.

También extraigo conclusiones extensas sobre la falsabilidad en mi artículo de 2016 “Notas desde el subsuelo existencial: El universo como un sistema emergente complejo”, Cosmos & History (2016) [1]

Cualquier cosa que sea autorreferencialmente causativa sin un contexto existencial explícito no es falsificable. Este es el caso de todo lo que no es directamente observable, independientemente de su origen en relación con la investigación institucional. …

En lugar de la falsabilidad, tales teorías se pueden confirmar porque son razonables, útiles y ampliamente impactantes. Woodward hace tal afirmación concluyendo que no arrojemos al bebé científico útil con el agua del baño de confusión existencialmente causal. [Woodward, A Functional Account of Causation, 2014] En el nivel macro de las ciencias, la utilidad es y seguirá siendo un estándar útil; En el nivel existencial en física, la desviación de la utilidad causal comenzó hace mucho tiempo. Para ser justos, la situación no es cómoda para nadie involucrado.

Otra área de resistencia es una variación en la falsabilidad. La física teórica ha permitido que las formalizaciones matemáticas se conviertan en un sustituto de la falsabilidad. Para satisfacer a aquellos que consideran que la metafísica institucional es demasiado limitante o confusa (lo cual son), se invita a las teorías a jugar el juego del uso de las matemáticas para lograr el encuadre necesario de las abstracciones en el trabajo en los “espacios” creados por la formalización inherente de las matemáticas en sí . Por lo tanto, uno puede verse cómodamente limitado por marcos causales basados ​​en la probabilidad o en marcos causales basados ​​en la asimetría del tiempo. …

El uso de las matemáticas, a pesar de la tranquilidad que ofrece su estructuración formalizada, difícilmente puede pretender agregar una función única o completa de justificar vuelos imaginarios ilimitados. En la medida en que los símbolos matemáticos y las funciones en los espacios de fase son un lenguaje formativo insuficiente para concebir completamente el universo, se justifica el uso de un lenguaje más general y la indagación basada en complejos sistemas emergentes. Dicha investigación tiene el potencial de beneficiar a la sociedad a través de un mejor ajuste y de la capacidad interdisciplinaria en la ciencia.

[Advertencia: mi trabajo se refiere en general al estado de las “teorías subterráneas” y cita la mía y la CTMU, una teoría que genera suficiente controversia como para hundir un barco. Mantengo los argumentos, pero a menos que puedas ver más allá de esa asociación lógica, no te molestes en leerla.]

Unos meses antes, Hossenfelder y un grupo solo por invitación se reunieron para el Why Trust a Theory? conferencia [2] en Munich en diciembre de 2015, la revista en línea Nautilus publicó un artículo “lite”, sentando las bases para una revolución “lite”. [3] Yo y muchos otros comentamos extensamente.

Hossenfelder está al menos interesado en mantener vivos esos esfuerzos, por lo que le doy sus accesorios.

Gracias por leer y comentar

Notas al pie

[1] Descarga del artículo

[2] ¿Por qué confiar en una teoría? Reconsiderando la metodología científica a la luz de la física moderna

[3] http: // & nbsp ; http://nautil.us/blog/

Así que déjame comenzar positivamente. Seguiré así todo el tiempo que pueda.

Hay algo de verdad en lo que Sabine Hossenfelder escribe en su artículo. Hay algunas personas que creen que la “falsabilidad” es el obstáculo que la física de partículas teórica necesita cruzar para ser ciencia.

La falsabilidad no es una condición suficiente ni necesaria para ser ciencia, particularmente en ciencias teóricas como la física teórica. Por ejemplo, comprender el comportamiento de la teoría N = 4 Super-Yang Mills es ciencia, aunque esta teoría nunca fue una teoría viable de la Naturaleza y, por lo tanto, siempre fue falsificada. No estoy seguro de lo que Karl Popper habría pensado sobre esto, estoy bastante seguro de que lo abordó y no habría descartado este trabajo como científico.

Si bien no soy filósofo de la ciencia, mi filosofía de la ciencia que uso cuando hago física teórica está muy cerca de Karl Popper. Creo que en realidad no aborda con suficiente cuidado cómo tratamos la ausencia de certeza (aunque sí lo menciona). Pero en general, Popper es muy astuto e impulsó la filosofía de la ciencia y su trabajo ha influido en casi todos los científicos, lo sepan o no.

Ahora, el tipo de físicos teóricos de partículas que creen que la falsabilidad es una condición suficiente para ser un trabajo productivo no es exactamente un líder seminal en el campo. La mayoría de los estudiantes de posgrado en su segundo o tercer año descubren las reglas necesarias para hacer que una nueva teoría falsable sea coherente con todas las leyes de la naturaleza conocidas. Y escuchará desdén, arrogancia y condescendencia cuando algunos estudiantes de posgrado arrogantes se dan cuenta de que hacer una nueva teoría es un libro de cocina.

Luego ingresan a su cuarto año de estudios de posgrado y se dan cuenta de que llegar a una nueva teoría no es el propósito de su investigación.

Cuál es el punto de su investigación es mucho más sutil. La física teórica depende de la época. En las décadas de 1950 y 1960 hubo docenas de partículas nuevas y explicar su orden fue realmente importante. En la década de 1970 se entendió la consistencia de las teorías cuánticas de campo.

Desde la década de 1980, nos han faltado numerosas piezas del Modelo Estándar y estamos buscando más evidencia experimental para darnos más indicaciones sobre cuál es la teoría más completa de la Naturaleza. En esta era, el objetivo de (algunos) trabajos de física teórica es descubrir nuevos fenómenos, particularmente aquellos que tienen firmas que aún no se habrían observado.

Como ejemplo, hemos descubierto que el 80% de la masa del Universo tiene la forma de una partícula no descubierta. No sabemos cómo buscar esta materia oscura o cuáles serían sus firmas más allá de sus interacciones gravitacionales. Ahora, en principio, podríamos simplemente mirar cada experimento. Pero existen numerosos problemas con la propuesta de “solo mirar todo” es que a.) No podemos hacer predicciones para cada experimento posible y b.) Tendríamos un poder de resolución estadística terrible combinando cada observación científica que se haya hecho.

Sin las teorías de los WIMP, los experimentos de detección directa no estarían motivados y no existirían. Sin las teorías de los axiones, los experimentos de cavidad resonante no existirían. ¿Doble desintegración beta sin neutrinos? Umm, ¿por qué gastarías dinero buscando eso? ¿Por qué incluso construir el LHC?

No estoy seguro de si Sabine Hossenfelder entiende esto o no, sospecho que, dado todas las palmaditas que se da en la espalda por ser “odiada”. Creo que ella también lo sabe porque casi nadie dice “esta teoría será falsificada cuando X ocurre. ”El punto es que los fenómenos podrían existir en una amplia variedad de teorías y nuestros antecedentes sobre qué tipos de teorías son más plausibles probablemente estén equivocados. Tal vez ella tiene una línea telefónica con Dios y conoce la verdadera naturaleza de la Naturaleza, pero yo no.

Puede hacer argumentos de retorno de la inversión sobre diferentes tipos de investigación. Quizás demasiadas personas están trabajando en este tipo de investigación. Pero eso es un tiroteo interno, que sospecho que es así.

Como alguien que ha hecho ‘mala ciencia’, creo que puedo aportar una perspectiva diferente a esta pregunta. Creo que el punto central que hizo Sabine Hossenfelder es ciertamente cierto en mi campo (gravedad cuántica no String).

Sin embargo, su presentación posiblemente oscurece lo que creo que es el tema central. Lo que sigue es mi toma de su publicación. Ella puede no estar de acuerdo con mi interpretación. (Editar: Ella está de acuerdo. Vea el comentario a continuación)

Creo que su reclamo central se puede dividir en dos proposiciones separadas:

1. Popper dijo que solo las teorías falsificables son científicas. Pero mucha gente leyó mal a Popper para decir que todas las teorías falsificables son igualmente “científicas”.

2. De ello se deduce que un documento sobre cualquier teoría falsable debe ser publicable, si de lo contrario es digno de mención. Esto (junto con algunos otros factores) ha llevado a la proliferación de la ‘mala ciencia’, numerosas teorías que en principio son falsificables pero pocas en el campo piensan que son prometedoras.

Consideremos primero el segundo reclamo. Es solo verdad. En campos como la gravedad cuántica o la física de partículas, hay una proliferación de papeles pobres porque:

(i) Los datos van a la zaga de la teoría.

En temas donde la teoría está tan lejos de los datos que es poco probable que se ponga al día en nuestra vida, esto también tiene el efecto de que hay menos incentivos para respaldar al caballo correcto.

(ii) Presión extrema para seguir publicando y

(iii) Una teoría falsable es una teoría publicable.

Por lo tanto, existe un fuerte incentivo para trabajar en teorías falsificables pero poco prometedoras. Como señaló Sabine, estos documentos prácticamente se escriben una vez que dominas la plantilla básica.

Yo mismo he escrito algunos de esos documentos. Todos fueron publicados en buenas revistas.

¿Ha ido tan lejos como para estar matando la física de partículas (o mi campo)? No puedo juzgar eso, pero claramente esto es un problema. Sí, todavía hay muchas personas buenas haciendo buena ciencia en estos campos. Pero las medidas cuantitativas (como el número de documentos o citas) utilizadas por muchas instituciones para seleccionar / eliminar a los solicitantes de empleo no pueden distinguir entre ciencia buena y mala. Resultado: las buenas personas son expulsadas del campo. Veo que esto sucede aquí en la India con bastante frecuencia. Este problema solo empeorará a medida que la comunidad crezca.

Volvamos a la primera proposición. La afirmación aquí es que, a la inversa del criterio de falsabilidad de Popper, “todas las teorías falsificables son científicas” está mal.

Como esto puede descender a un argumento infructuoso sobre lo que es “científico” y dónde trazamos la línea, permítanme expresarlo de una manera diferente: la afirmación es que hay una diferencia de calidad entre varias teorías, incluso si no lo hacemos. sin embargo, tienen un criterio preciso para calificarlos.

La mayoría de los físicos estarían de acuerdo con esto. La mayoría dirá, por ejemplo, que una teoría con un parámetro libre es mejor que una teoría con 500 parámetros libres. Una analogía acertada que hace Sabine es con la piratería en psicología. Como ella dice

El punto es que cuanto más fácil sea elaborar predicciones, menor será su valor predictivo.

La mayoría de nosotros entendemos esto en algún nivel y muchos usan su criterio para reclutar personas que trabajan en campos prometedores y alejar a los que no lo hacen. Pero esa batalla se ha vuelto más difícil con el tiempo a medida que aumenta el número y la influencia de los practicantes de la ‘mala ciencia’.

Sería mejor si la comunidad pudiera establecer ciertos criterios de calidad y utilizarlos para juzgar la investigación.

Estoy totalmente de acuerdo con esto. Pero la pregunta clave sigue abierta en gran medida: ¿podemos proponer criterios cuantitativos para medir la calidad de la investigación? Algo en lo que todos debemos pensar.

Eso es injusto para Popper. El criterio del contenido empírico de Popper no solo es absoluto (una teoría tiene que ser falsificable) sino también relativo (si una teoría puede ser falsificada por un experimento que no puede falsificar la otra teoría competitiva, pero no en la otra dirección, entonces la primera teoría tiene mayor contenido empírico, por lo tanto, tiene que ser preferido.

Simplemente agregar otro campo hace que una teoría sea más compleja y, por lo general, agrega algunos parámetros, que pueden usarse para ajustar la evidencia que falsifica la teoría original sin el campo adicional. Entonces, siguiendo a Popper, la teoría no modificada tiene que ser preferida hasta que se falsifique.

Popper también ha señalado que la mayor parte de la preferencia científica por las teorías simples puede explicarse de esta manera: falsificar una teoría simple es más fácil, por lo tanto, tiene un mayor contenido empírico.

Todo esto ya es injusto en la lógica del descubrimiento científico, por lo tanto, no hay retroceso.

(Y, como comentario secundario, nadie intenta inventar un éter luminífero que imite exactamente la relatividad especial simplemente por una razón bastante simple: porque esto ya lo ha hecho Lorentz, y es simplemente la interpretación original de la relatividad especial del éter de Lorentz. Y imitar GR también es bastante trivial: tomar coordenadas armónicas (famosas por simplificar las ecuaciones de Einstein) e interpretarlas como ecuaciones de continuidad y de Euler para el éter. Solo es necesaria una iteración: para preservar el formalismo de Lagrange, introdúzcalos agregando un término que imponga ellos. Ver aquí para más detalles.)

Creo que uno podría reformular su crítica como:

Hay tantos grados de libertad dentro de los modelos de física de partículas que es posible hacer cualquier cantidad de predicciones que podrían ser probadas en un futuro ideal muy lejano y cuando hay miles de jóvenes que están haciendo un gran número de predicciones. ya sea no comprobable o comprobable solo en principio , terminas con una comunidad de personas disparando en la oscuridad y llamándolo física teórica.

Desafortunadamente, la crítica de Sabine a la “sobreproducción de predicciones sin valor” parece cierta.

Esa es una gran manera de ser un mal científico, pero hay más. Si ajusta su teoría para que coincida con los datos , eso también es ilegítimo. En el CERN, llaman a algunos de los físicos de partículas “cazadores de ambulancias” porque cada vez que hay un rumor de algunos datos extraños, un centenar de jóvenes saltan sobre él e intentan escribir una teoría que coincida.

Al mirar algunas de sus otras publicaciones en el blog, simpatizo con su crítica del factor general, el dulce de azúcar que es la materia oscura y el manto de legitimidad que el estilo exigente de las revistas de física da incluso a las peores tonterías.

Toda la empresa de física de partículas mantiene su legitimidad por la falacia del costo hundido y la barra estilísticamente alta para ingresar a la competencia por la gloria de la física . Es bastante triste cuántos años de vida se han vertido en estas cosas. Los requisitos de estilo exactos y las barras altas deberían ser la materia de los juegos olímpicos, no la ciencia.

Estoy de acuerdo con la afirmación general de “falsabilidad no necesariamente lo convierte en una buena teoría”. Creo que la crítica del autor del blog probablemente puede ser análoga a una crítica de la forma en que se evalúan las contrataciones, las promociones y los avances profesionales en nuestro campo. A saber, uno tiene que publicar regularmente, y ser citado altamente, para avanzar. Como resultado, normalmente encuentra demasiados documentos que son simplemente una variación de algún documento anterior. Pero no veo cómo se pasa de eso a hacer generalizaciones sobre una disciplina.

La física de partículas, para bien o para mal, se ha definido como un campo que persigue las grandes preguntas sobre nuestro universo. Tomemos, por ejemplo, Dark Matter (DM). Tenemos pruebas sólidas de que la mayor parte de la materia en el universo no está compuesta de la materia ordinaria que nos hace a nosotros, nuestro planeta, las estrellas, etc. De hecho, la mayor parte es DM. Ahora, esta evidencia apunta fuertemente a que este DM está hecho de partículas nuevas no descubiertas, o está hecho de objetos compactos como un agujero negro. Creo que es justo decir que esta última posibilidad es menos favorecida por las observaciones. en estos días (y en aras de la exhaustividad, hay ideas en competencia que nos dicen que para explicar la DM todo lo que uno realmente necesita es modificar la gravedad, pero dejemos eso de lado para esta discusión).

¿Qué pasa con la masa DM, ya sea una partícula elemental o un objeto compacto? Las observaciones nos dan un límite en realidad. El límite es, en unidades de electronvoltio (eV):

[matemáticas] 10 ^ {- 22} ~ \ rm {eV}

Entonces, sabemos que la masa DM “solo” abarca 88 órdenes de magnitud. Como referencia, la masa del protón en estas unidades es de aproximadamente [matemática] 10 ^ 9 [/ matemática] eV.

Ahora, en realidad es muy fácil construir un modelo de DM, ya que sabemos relativamente poco al respecto. Sabemos su densidad de energía (cuánto material de MS hay por unidad de volumen), que interactúa a través de la gravedad, que no parece interactuar a través del electromagnetismo y que a grandes escalas puede considerarse como un fluido sin presión.

Ok, entonces es muy fácil construir un modelo de DM, ya que DM podría ser “cualquier cosa”. Bueno, según el autor, probablemente deberíamos detenernos ahora, ya que la posibilidad de que cualquier teoría de DM sea correcta es infinitamente pequeña.

Esa es la parte con la que respetuosamente discrepo. Por lo menos, ¿no tienes curiosidad por saber de qué está hecha la mayor parte del universo? ¡Sé quien soy! Pero hay más. Para DM, podemos elegir pensar en paradigmas y mecanismos, en lugar de teorías específicas. De esa manera, podemos aprender mucho probando un paradigma, en lugar de la teoría favorita de un teórico.

Como ejemplo, un paradigma que la comunidad ha seguido durante las últimas décadas es que la DM está hecha de partículas llamadas WIMP (partículas masivas que interactúan débilmente). Esto cae más generalmente bajo el paraguas de una clase de teorías donde DM obtuvo su abundancia actual a través de un mecanismo llamado “congelamiento”. Básicamente, en el universo temprano, el DM estaba en una sopa térmica con materia normal, por lo que el DM y la materia normal estaban en equilibrio térmico. Entonces, dos partículas de DM podrían entrar, aniquilarse y convertirse en dos partículas de materia normal (piense en electrones, positrones, etc.), con el proceso inverso también. Sin embargo, en algún momento, a medida que el universo se expandía, era poco probable que dos partículas de DM se encontraran con la suficiente frecuencia y se aniquilaran en materia normal. Entonces decimos que la abundancia de DM está congelada en ese punto.

Ahora, es un hecho notable que todo lo que realmente necesita para que este mecanismo proporcione la abundancia de MS que observamos hoy es tener una partícula de MS con la escala de masa y una fuerza de interacción (más allá de la gravedad) que sea “muy cercana” a la de uno de las otras fuerzas conocidas en la naturaleza: la fuerza nuclear débil (los portadores de fuerza de la fuerza débil tienen masas alrededor de [matemáticas] 10 ^ {11} [/ matemáticas] eV). Entonces, al tratar de probar este paradigma de manera robusta, en realidad estamos probando una gran clase de teorías.

Los experimentadores han hecho, están haciendo, y harán progresos impresionantes en la prueba de hitos importantes en este mecanismo. ¿Encontrarán resultados nulos? Claro, eso es probable, creo. Pero eso nos enseña mucho sobre DM y proporcionará orientación a los teóricos de partículas sobre dónde ir a continuación. ¿Y si descubren algo? Luego haremos un descubrimiento increíblemente sorprendente, y uno que fue tan difícil en primer lugar que nuestra civilización no tenía derecho a esperar.

Creo que Sabine está haciendo algunos buenos puntos, pero está perdiendo el objetivo con sus conclusiones.

La idea de la falsabilidad en la ciencia, aunque es muy influyente, es, por supuesto, más matizada que simplemente “teoría científica == idea falsable”. Pero todos los científicos que conozco entienden esto, y entienden ambos puntos que Sabine está haciendo: que las observaciones experimentales que contradicen una teoría generalmente no la matan, sino que simplemente la obligan a cambiar; y que ser falsificable no convierte automáticamente una idea en una búsqueda científica digna. Así que creo que ella exagera cuando afirma que este es un malentendido común en el campo.

Por otro lado, Sabine tiene razón en que muchos trabajos en física de partículas simplemente muestran uno de millones de ideas improbables que podrían ser confirmadas o refutadas por experimentos. ¿Porqué es eso? Creo que, como en otras disciplinas, la razón principal de esto es sociológica. Pero no es porque la gente crea en Popper “al revés”; es simplemente por los incentivos en el campo.

Cuando el anuncio de los neutrinos superluminales salió hace unos años, todos los teóricos que conozco lo descartaron como una especie de falla que desaparecerá una vez que todo se haya revisado cuidadosamente. Sin embargo, esos mismos físicos se apresuraron a publicar documentos explicando cómo la anomalía podría encajar con la física conocida. ¿Por qué demonios harían eso? Lo que está sucediendo aquí es una cobertura de apuestas. En un entorno donde “publicar o perecer” suena más cierto que nunca, escribir documentos muestra productividad, por lo que existe un incentivo muy fuerte para publicar documentos que sean fáciles de escribir. Por lo menos, se verán bien en tu CV, y si tienes mucha suerte, uno de ellos podría ser el correcto. Entonces no es que los físicos teóricos no entiendan la falsabilidad; Es que los criterios que usamos para juzgar quién obtiene empleo y quién obtiene fondos incentivan la investigación superficial.

Ahora, sería injusto culpar a este fenómeno solo de la “investigación superficial”. El otro punto importante, que Sabine seguramente conoce y debería haber mencionado, es que la física de partículas ha estado en un punto muerto durante muchos años. Esto se debe a que los resultados experimentales no parecen imponer fuertes restricciones a la nueva física. La mayoría de las cosas que observamos encajan perfectamente con las predicciones del Modelo Estándar, y cuando se trata de cosas que están completamente apagadas, como la gravedad cuántica, la materia oscura o la energía oscura, hemos salido con las manos vacías. Dos de los descubrimientos más celebrados en los últimos años: encontrar el bosón de Higgs en el Gran Colisionador de Hadrones y detectar directamente ondas gravitacionales, solo confirmaron teorías de décadas de antigüedad. Mientras tanto, el tipo de cosas que podríamos haber visto que irían más allá del Modelo Estándar, como la supersimetría de baja energía, las partículas masivas que interactúan débilmente (WIMP), o incluso solo múltiples Higgses, no están a la vista. Por lo tanto, los teóricos de partículas se quedan luchando por ideas. No está claro que haya una alternativa mejor que simplemente inventar un montón de teorías que se puedan probar en el futuro cercano. No sé lo que Sabine propone hacer en su lugar; ella no parece especificar eso en su publicación.

Entonces, ¿cuál es la lección que se debe aprender? Creo que sería genial cambiar el sistema de incentivos en la investigación para recompensar mejor el pensamiento profundo sobre la fruta baja. Creo que este es el punto que Sabine está tratando de hacer. Pero también creo que a veces es muy difícil saber qué tipo de ciencia va a dar resultados, y no debemos ser muy rápidos para juzgar a las personas que hacen un trabajo diferente al nuestro.

La ciencia, como cualquier esfuerzo humano, es borrosa en el medio. En casos extremos, las cosas son bastante claras. Obviamente, una teoría científica tiene que ser comprobable, por lo que si afirmas que llueve cuando las hadas invisibles hacen cosquillas en las nubes, eso no es ciencia. Por el contrario, una teoría como la mecánica newtoniana es obviamente científica: es precisa, es comprobable, es útil. Pero cuando vas a la vanguardia de la investigación científica, las cosas están mucho menos claras, ¿y no es eso de esperar? No puede saber si una idea es buena o no antes de trabajar en ella durante el tiempo suficiente para verificarla. Por lo tanto, no sorprende que los problemas de investigación actuales hagan alarde de cualquier regla estricta sobre lo que debería ser la ciencia. Esto significa que es importante probar muchos enfoques diferentes, hasta que uno (o algunos) salga como el más prometedor. Hasta que tengamos algún avance en la física de partículas, muy probablemente desde el lado experimental, que nos ayude a descubrir cuál es el mejor camino a seguir, jugar con teorías poco probables podría ser todo lo que podemos hacer.

Huh Me hizo mirar

Ella hace muchos puntos válidos, principalmente que la refutabilidad no es suficiente para hacer una teoría “científica” y que no todas las revisiones exitosas son revolucionarias (o incluso implican cambios de paradigma).

Pero (como ella misma señala) enumerar las aplicaciones erróneas de un principio no es lo mismo que refutar el principio; y el pobre viejo Popper ciertamente no merece ser el hombre de paja en esta crítica.

Además … ¿La física de partículas está muerta? ¿La física de partículas solía estar viva?

Qué crítica irónica del periodismo científico sensacionalista.

Al leer un conocido libro sobre economía de la ingeniería en mis días de universidad, vi un esquema para verificar un nuevo sistema de trabajo antes de instalarlo. Dice que necesita verificar;

1-El nuevo sistema hace todas las cosas buenas que hizo el sistema anterior.

2-Hay una ventaja adicional en el nuevo sistema sobre el anterior … como ser menos exigente en tiempo, costo o comprensión, etc.

3-No introduce problemas nuevos (graves) que no existían en el antiguo sistema de trabajo.

4-Comience un experimento piloto para probar todo lo anterior, antes de adoptar completamente el nuevo sistema.

Este esquema, en mi opinión, es una receta para un progreso continuo en cualquier campo sin posibilidad de retroceder. Desafortunadamente, no parece que muchos lo sigan, y en cambio vemos un camino sinusoidal de progreso hacia adelante y hacia atrás. La ciencia en general, es probablemente el menor infractor a este respecto.

En física, esto significa garantizar que la nueva idea / teoría / interpretación debe estar de acuerdo con todos los hallazgos experimentales anteriores, luego agrega algo nuevo y útil a la teoría / método anterior … como ser más conciso o más fácil de hacer cálculos, resolver más de uno problema en una ejecución, y así sucesivamente … y no debería introducir problemas nuevos … como tener demasiadas variables para ajustar, o ser menos sabio en cuanto a lógica, o más difícil de probar, y así sucesivamente. Una aplicación continua de este esquema dará como resultado formulaciones más concisas que son más lógicas, menos exigentes para trabajar, producen más y más precisión a medida que pasa el tiempo.

La prueba para una buena teoría nueva, en mi opinión, debería ser más amplia que la de la condición de Popper, a fin de perder menos tiempo en excursiones innecesarias. Siento mucho por los muchos investigadores jóvenes inteligentes, forzados a trabajar en ideas soñadas por sus supervisores mayores, dirigidas a su fama personal más que al progreso en la ciencia. Tuve una experiencia de primera mano de tal autoritarismo en más de una ocasión.