Detectar cuándo el cambio de tendencia hace que los modelos predictivos sean obsoletos.
Editar más tarde
El concepto de problema de deriva afecta negativamente a los modelos. Hay algunos documentos y libros, como Aprendizaje en entornos no estacionarios: Métodos y aplicaciones: Moamar Sayed-Mouchaweh, Edwin Lughofer: 9781441980199: Amazon.com: Libros o aprendizaje automático en entornos no estacionarios. El problema es que uno ofrece un modelo basado en el aprendizaje y espera que el modelo funcione bien más allá de la etapa de tren / validación. Sin embargo, el flujo de datos puede cambiar y uno debería poder caracterizar el entorno en el que el modelo propuesto funciona mejor.
Esto también está relacionado con la entrevista reciente: el maestro de aprendizaje automático Michael Jordan sobre los delirios de Big Data y otros enormes esfuerzos de ingeniería en los que se afirma:
“Me gusta usar la analogía de construir puentes. Si no tengo principios, y construyo miles de puentes sin ninguna ciencia real, muchos de ellos se caerán y ocurrirán grandes desastres”. Deberíamos poder ofrecer algunas garantías para el modelo entregado; solo mirarlos de vez en cuando y concluir “ya no funciona, volvamos a entrenarlo / cambiarlo” no es suficiente.
- Cómo ser bueno en programación y también bueno con electrónica
- ¿Debo comenzar mi investigación en temas de interoperabilidad en IoT?
- ¿Por qué Ernest Rutherford nunca ganó un premio Nobel de Física? Recibió un Nobel de Química, pero al menos 10 personas que trabajan con él recibieron premios Nobel de Física. ¿Por qué nunca recibió uno él mismo como colaborador?
- ¿Qué significa exactamente "tener un buen tema de investigación"?
- ¿Cómo se comparan Israel y Singapur en términos de producción de investigación?