¿Cómo funciona el Método de análisis de histograma ponderado (WHAM)?

Comencemos con lo muy fundamental. ¿Cuál es el objetivo de utilizar el Método de análisis de histograma ponderado (WHAM)? Que trae

Cualquier técnica avanzada de simulación \ muestreo es para un objetivo final: obtener cantidades más precisas bajo los recursos computacionales restringidos. Y se pueden dividir aproximadamente en dos categorías que incluyen
1) aquellos que tienen como objetivo muestrear el espacio de fase de manera más eficiente: por ejemplo, MC libre de rechazo y MC cluster intentan muestrear los diferentes microestados más rápidamente en comparación con los movimientos MC convencionales;
2) y aquellos que intentan extraer más información de las salidas de simulación sin procesar.

Bien, es posible que ya lo haya sabido, el objetivo de WHAM es tratar de obtener más información de las salidas de simulación.

Siguiente pregunta, ¿cómo funciona?

El método de análisis de histograma ponderado (WHAM) generalmente se usa mucho junto con el muestreo general o cualquier esquema de muestreo que implique múltiples procedimientos de pesaje. En aras de la claridad, restringimos nuestra discusión al muestreo paraguas WHAM +.

Ahora que el muestreo general ha hecho su trabajo para muestrear efectivamente el espacio de fase a lo largo de las coordenadas de reacción discretas [math] s ^ {(i)} [/ math] aplicando una lista de potenciales de polarización
[matemáticas] W (q, s ^ ​​{(i)}) = k / 2 (s (q) -s ^ {(i)}) ^ 2 [/ matemáticas].
Y cada dinámica molecular o simulación de Monte Carlo en la ventana [matemática] s ^ {(i)} [/ matemática] genera la función de distribución de probabilidad sesgada [matemática] P_ {sesgada} ^ {(i)} (s ^ {(i )}, q) [/ math] (es decir, histograma normalizado). La función de distribución imparcial se puede lograr simplemente volviendo a pesar
[matemáticas] P ^ {(i)} (s ^ {(i)}, q) = \ langle e ^ {- \ beta W (q, s ^ ​​{(i)})} \ rangle [/ math]
[matemáticas] * e ^ {\ beta W (q, s ^ ​​{(i)})} P_ {sesgado} (s ^ {(i)}, q) [/ matemáticas].

Nuestro objetivo es dar una mejor estimación de la función de distribución completa [matemática] P (q) [/ matemática], que esencialmente contiene toda la información sobre el sistema. Suponemos que [math] P (q) [/ math] puede expresarse como la combinación lineal de [math] P ^ {(i)} (s ^ {(i)}, q) [/ math]:
[matemáticas] P (q) = \ sum C_i (q) P ^ {(i)} (s ^ {(i)}, q) [/ math],
donde {[math] C_i (q) [/ math]} es un conjunto de coeficientes que deben optimizarse para minimizar el error estadístico total.

Luego, por buenas y largas razones, aproximamos la función de error estadístico en cada ventana [math] s ^ {(i)} [/ math] para ser
[matemáticas] {(\ sigma ^ {(i)} (q))} ^ 2 = \ langle e ^ {- \ beta W (q, s ^ ​​{(i)})} \ rangle e ^ {\ beta W (q, s ^ ​​{(i)})} / n_i [/ ​​math],
donde [math] n_i [/ ​​math] es el número de configuraciones muestreadas en la ventana. Tomar
[matemática] \ sigma ^ 2 (q) = \ sum C ^ 2_i (q) {(\ sigma ^ {(i)} (q))} ^ 2 [/ math]
y hacemos una minimización tomando derivados con respecto a {[math] C_i (q) [/ math]}, finalmente obtenemos
[matemáticas] C_i (q) = n_i e ^ {- \ beta W (q, s ^ ​​{(i)})} / \ langle e ^ {- \ beta W (q, s ^ ​​{(i)})} \ rangle [/ math].
A menudo se agrega un prefactor de normalización para garantizar que
[matemáticas] \ sum C_i (q) = 1 [/ matemáticas].