Es todo el campo de investigación.
Consideremos la traducción automática automática. La entrada al motor de traducción automática (MTE) es la oración en idioma_1 y la salida son las oraciones traducidas en idioma_2 . La mejor manera de evaluar MTE es contratar un intérprete profesional para hacer el trabajo, pero imaginemos que tenemos miles de pares (oración – oración) para verificar y, además, resulta que necesitamos varios intérpretes porque debemos asegurarnos de que la evaluación sea consistente. Ahora puede ver por qué estamos tan obsesionados con las métricas de evaluación.
“Las evaluaciones humanas de la traducción automática son extensas pero costosas … pueden tardar meses en terminar e involucran trabajo humano que no se puede reutilizar”. Esta fue la razón para desarrollar una métrica “económica e independiente del idioma” para medir la calidad de la traducción llamada Estudio Bilingüe de Evaluación. (BLEU) Los inventores de BLEU quieren que sea como un “suplente automatizado” y que sustituya a “jueces humanos calificados” siempre que se necesiten evaluaciones rápidas y frecuentes. Catorce años después de la publicación del documento, BLEU se ha convertido en el estándar de facto para evaluar la producción de traducción automática. [1]
- ¿Pueden los novatos investigar en el aprendizaje profundo en unos pocos meses?
- ¿Cómo afecta cada año de educación adicional después de la escuela primaria el potencial de ingresos de una persona?
- ¿Cuánto tiempo necesita un consultor para la investigación?
- ¿Cuáles son algunos consejos para las personas nuevas en la investigación de archivos?
- ¿Cuáles son algunos ejemplos en los que los artículos basados en investigaciones son condescendientes para las personas con autismo?
Notas al pie
[1] Cómo BLEU mide la traducción y por qué es importante | Slator