Es claramente una pregunta amplia y cualquier investigador daría respuestas muy diferentes. Aquí es, sin ningún orden o importancia particular, lo que veo como potencialmente prometedor:
- Hay muchos trabajos posibles en la teoría computacional de los grupos de Lie. Cosas como enumerar subgrupos finitos, describir múltiples. Tengo la impresión de que la teoría computacional trabajada hasta ahora es principalmente sobre el álgebra de Lie, y que hay un buen potencial para usar buenos métodos numéricos para encontrar nuevos objetos.
- Los métodos numéricos para modelos numéricos (p. Ej., Modelos de pronóstico atmosférico) utilizan métodos explícitos (con stentil fijo, rápido pero con paso de tiempo limitado por CFL) o métodos implícitos (plantilla infinita, sin limitación de paso de tiempo directo, pero enormes sistemas lineales o no lineales para resolver) . Creo que los sistemas implícitos son excesivos, porque en el caso de un modelo atmosférico global, significa que el viento en el lado opuesto de la tierra influye en el viento en un punto dado que no tiene sentido. Debería haber formas de trabajar de manera explícita, pero métodos complejos utilizando una plantilla variable, por ejemplo, basados en wavelets para superar ese problema.
- Puede haber algún progreso en la teoría computacional de homología, cohomología, teoría K de grupos discretos. Me refiero a los grupos relacionados con GL2 (R) para R un anillo, tenemos una tecnología de formas modulares que permiten tratar grados bastante altos. Para GLn (R), n> 2 tenemos alguna tecnología poliédrica, pero su grado es muy limitado. Debe haber alguna forma de evitar tener cálculos tan grandes para calcular objetos tan pequeños.
- Existe un extenso trabajo de expertos como Patric Ostergard para enumerar objetos combinatorios. Creo que hay algún potencial en el uso de tales técnicas en temas relacionados. Por ejemplo, cálculos poliédricos. Pero esencialmente, en cualquier pregunta matemática donde haya una distinción de casos, podrían usarse tales técnicas. Sin embargo, uno necesita abstraerse del estricto entorno combinatorio.
- Por supuesto, hay problemas que preocupan a todos, como el problema P versus NP. Creo que en ese caso, se podría encontrar que es indecidible. Tengo entendido que la magnitud de las implicaciones en cada dirección sería tan enorme que no podría existir una solución simple.
- Me impresionó mucho el rendimiento logrado por los algoritmos ideados en el campo de http://en.wikipedia.org/wiki/Com…, por ejemplo, los algoritmos de primer orden para programación lineal y algoritmos generalizados de paso de mensajes. Creo que dicho progreso algorítmico se aplicará a muchas otras preguntas relacionadas.
- Todavía hay mucho trabajo por hacer en cosas simples relacionadas con temas de estilo antiguo, por ejemplo, parametrizaciones de turbulencia. Muchas parametrizaciones que se usan comúnmente, por ejemplo, la tensión superficial entre el viento y el suelo subyacente, la absorción de luz por la atmósfera, etc., son anticuadas y podrían mejorarse.
- La ley de Moore está llegando a su fin lentamente. La adaptación será lenta, pero creo que frases como “las computadoras son rápidas ahora, no necesitas optimizar tu código” se verán cada vez más estúpidas y habrá una tendencia a alejarse de los lenguajes informáticos de bajo rendimiento.
- La prueba de Thomas Hales de la conjetura de Kepler ha demostrado que las herramientas de la optimización global no lineal se pueden utilizar para probar resultados rigurosos en matemáticas. Tales herramientas seguramente serán más estandarizadas.