Supongo que esto se trata de aprendizaje profundo versus aprendizaje automático convencional . En mi opinión, es más fácil publicar un artículo promedio en aprendizaje profundo en comparación con un artículo promedio en aprendizaje automático.
La razón principal de esto es que debido a que el respaldo teórico no es particularmente crucial para explicar todo lo que hace un modelo de aprendizaje profundo, muchos documentos de aprendizaje profundo solo implican ajustar la tubería de arquitectura / capacitación o aplicar el aprendizaje profundo a problemas donde no se aplicaba previamente , sin mucha novedad, o sin utilizar una forma sistemática para mejorar el rendimiento. En el aprendizaje automático convencional, a menudo comienza con algún modelo matemático de su problema, donde puede ver claramente los supuestos simplificadores, y luego intenta sistemáticamente mejorar su rendimiento trabajando en esos supuestos simplificadores.
Entonces, mientras que en el aprendizaje profundo, el enfoque se centra principalmente en mejorar la precisión en los experimentos, en ML convencional, debe asegurarse de que el marco matemático tenga sentido, así como que el rendimiento sea bueno en los experimentos. Si va al aprendizaje automático teórico, se vuelve aún más difícil: el rendimiento en los experimentos debe ser bueno, el modelo matemático debe tener sentido y debe satisfacer algunos límites de generalización [como el error esperado en los datos invisibles está limitado].
- ¿Se considera plagio incluir la misma biografía en los trabajos de cada conferencia y revista?
- ¿Necesita la academia un sistema de revisión más riguroso, un pensamiento más crítico y críticas más duras entre ellos?
- ¿Qué hace que la genealogía académica sea tan importante?
- Si a cada estudiante de primer año de MIT CS se le entregó un conjunto de material de lectura que consta de trabajos de investigación atemporales compuestos por profesores del MIT, ¿qué deberían leer?
- ¿Cuáles son algunos trucos que pueden facilitar la vida del investigador?