¿Qué es la dimensión VC?

Necesitamos introducir varios conceptos aquí. Supongo que su pregunta está en el campo del aprendizaje automático.

Primero, supongo que sabe qué significan la hipótesis, la clase de hipótesis, el conjunto de datos de entrenamiento, la etiqueta y el clasificador en el contexto del aprendizaje automático.

En segundo lugar, tiene que convencerse de que en la clasificación binaria, para un conjunto de datos dado con [math] m [/ math] puntos en un espacio numérico real [math] n [/ math] -dimensional, hay [math] 2 ^ m [/ math] esquema de etiquetado para ello. Por ejemplo, para un conjunto de datos con 2 puntos fijos cuyas coordenadas cartesianas son (0,0) y (1,0), estos puntos pueden etiquetarse como {+, +}, {+, -}, {-, +}, { -, -}, por lo que existen esquemas de etiquetado [matemático] 2 ^ 2 = 4 [/ matemático] para el conjunto de datos.

Tercero, decimos que una clase de hipótesis [matemática] H [/ matemática] puede “destruir” un conjunto de datos DADO [matemática] S [/ matemática], si para CUALQUIER esquema de etiquetado de [matemática] S [/ matemática], siempre hay menos una hipótesis [matemática] h [/ matemática] dentro de [matemática] H [/ matemática] que puede predecir correctamente la etiqueta de cada punto.

Finalmente, decimos que la dimensión VC de la clase de hipótesis [matemáticas] H [/ matemáticas] es [matemáticas] d [/ matemáticas], si la cardinalidad más alta (es decir, el número de puntos) del conjunto de datos que [matemáticas] H [/ matemáticas] ] puede romperse es [math] d [/ math].

La dimensión VC se refiere a la dimensión Vapnik-Chervonenkis, originalmente presentada por Vladimir Vapnik y Alexey Chervonenkis. Aproximadamente, mide la capacidad de una clase de hipótesis, o el poder expresivo.