Si las características polinómicas son linealmente dependientes (por lo tanto, información redundante), ¿por qué se usan en la regresión polinómica?

No estoy de acuerdo con tu premisa. No hay redundancia.

No estoy seguro de lo que quieres decir con ‘características’. Esa palabra no aparece con frecuencia en los libros de estadísticas, tal vez proviene del análisis de imágenes o el aprendizaje automático. En términos de una imagen, supongo que las características de un polinomio serían máximos y mínimos locales, y, tal vez, ceros.

Puede pensar en un polinomio de grado [matemático] k [/ matemático] como una suma ponderada de potencias de [matemático] x [/ matemático] de cero a [matemático] k [/ matemático]. Estos polinomios son linealmente independientes, por lo que forman una base para el espacio de todos los polinomios de grado [matemática] k [/ matemática].

Desafortunadamente, si el grado, [matemáticas] k [/ matemáticas], es alto, las ecuaciones de mínimos cuadrados se vuelven mal condicionadas, por lo que es común usar un conjunto diferente de funciones básicas. Los polinomios ortogonales no tienen este problema.

Si los datos consisten en pares [matemática] (x_1, y_1) [/ matemática], [matemática] (x_2, y_2) [/ matemática],…, [matemática] (x_n, y_n) [/ matemática], entonces, para un ajuste suave, [matemática] n [/ matemática] debe ser mucho mayor que [matemática] k [/ matemática]. La ortogonalidad se define en términos de [math] x [/ math] s.