Me vienen a la mente otros dos desarrollos que también han tenido un impacto significativo:
1. La rutina inicial : cuando todo lo que tenemos es una muestra única de la población original, y no tenemos idea de (y por lo tanto no queremos plantear arbitrariamente) la distribución que gobierna la población original de la cual se extrajo la muestra, muestra repetidamente de manera uniforme y con reemplazo de la muestra que tenemos, para hacer inferencias en las estadísticas asociadas con la muestra.
Es equivalente a aceptar la distribución empírica (dentro de la muestra que tenemos a mano) como la única información disponible sobre la población en general, sin inyectar más suposiciones sobre la forma de la distribución en toda la población.
Que este enfoque produzca estimaciones excelentes y con muy buenos errores estándar en tantos casos prácticos, es a la vez sorprendente en su eficacia, generalidad y elegancia, y tal vez no sea tan sorprendente cuando damos un paso atrás y nos damos cuenta de que declarar que un fenómeno está gobernado por Gaussian o Poisson o cualquier distribución es a menudo una cuestión de conveniencia que permite trabajar con modelos conocidos con soluciones familiares, en lugar de un verdadero reflejo de la Madre Naturaleza.
2. Detección comprimida: esta es la noción de que, para muchos problemas de procesamiento de señales en la vida real que exhiben escasez (por ejemplo, pocos parámetros distintos de cero o no cercanos a cero en el dominio de frecuencia / Fourier), se puede muestrear a tasas significativamente por debajo de la frecuencia de muestreo de Nyquist y todavía recupera la integridad casi total de la señal original.
Para este trabajo, el muestreo debe realizarse en dominios ortogonales al (a los) dominio (s) en los que la señal presenta escasez, pero la detección comprimida muestra formas de muestreo aleatorio que logran esta ortogonalidad, ofreciendo soluciones prácticas y no solo pruebas de existencia sin enfoques constructivos.
Una de las razones para que este desarrollo sea relativamente reciente (1990) es su dependencia de las normas L1 que requieren enfoques computacionales en lugar de las normas L2 para las cuales las soluciones analíticas se obtienen más fácilmente con “lápiz y papel”.
Esto es nuevamente sorprendente en su poder para reducir las tasas de muestreo requeridas a pequeñas fracciones del dogma anterior de “la recuperación original solo es posible si el muestreo es el doble de la frecuencia más alta que está presente en la señal”, pero de nuevo, un poco menos sorprendente cuando uno recuerda que el resultado de Nyquist anterior solo es ajustado para el ruido blanco en el peor de los casos (o densidad uniforme en un rango de frecuencias), mientras que muchos fenómenos en la vida real exhiben escasez en algún espacio de proyección de la señal.
Esto tiene implicaciones importantes en áreas como el escaneo médico, y puede resultar en enfoques mucho menos costosos o, lo que es más importante, enfoques mucho menos invasivos (por ejemplo, completar un escaneo de un niño mucho más rápido al hacerlo de manera más gruesa, lo que hace posible para hacerlo con más restricciones benignas sobre la inmovilidad que las sesiones más largas).