Ok, soy un principiante en esta área y, por lo tanto, estoy hablando en términos de lo que me parece interesante.
En primer lugar, una respuesta sorprendente de Jiang Guo y Leonid Boytsov.
El tema de generar subtítulos o descripciones me parece bastante interesante. Microsoft ejecutó este increíble desafío Objetos comunes en contexto que fue bastante interesante. Recientemente comencé a interesarme en este problema para comprender las relaciones espaciales. Mira algunos trabajos recientes de Mateusz Malinowski que supongo que disfrutarás.
Lenguaje a tierra. Este es un problema asombroso y tiene aplicaciones en aprendizaje multimodal, semántica, etc. Consulte al grupo de Regina Barzilay para ver algunos trabajos recientes.
Selección dinámica de funciones para problemas de PNL. La selección de funciones es el corazón de muchos problemas en PNL / ML. Aquí hay algunos trabajos recientes [1]. Para ser sincero, lo escuché de un colega y no pude hacer tiempo para estudiarlo / entenderlo, pero realmente lo encuentro fascinante.
- ¿Qué efecto tendrá la ciencia en las elecciones?
- Cómo participar en la investigación como estudiante universitario de CS en India
- ¿Cuáles son las éticas de los organoides?
- ¿Qué significa 'el universo es plano'?
- ¿Cómo convertirse en un revisor para conferencias relacionadas con ACL (NAACL, ACL, EMNLP)? ¿Hay alguna forma de enviar una solicitud?
Representación de aprendizaje para frases u oraciones. Por lo general, las personas usan modelos multiplicativos / modelos aditivos. Pero supongo que deberíamos mirar más allá de esto.
Aprendizaje en bases de conocimiento: – ¿Cómo aumentamos las bases de conocimiento con nueva información? ¿Cómo verificamos los hechos si son correctos?
[1] http://arxiv.org/pdf/1505.06169v…
Creo que esto es lo que ‘yo’ encuentro interesante.
Por cierto, definitivamente deberías preguntarle a Jason Eisner o Jordan Boyd-Graber.
También hubo una gran charla de Jason en ICLR http://techtalks.tv/talks/deep-l…. Echa un vistazo a eso también 🙂