Tengo un problema de clasificación en la mano, que me gustaría abordar con un algoritmo de aprendizaje automático (Bayes, o Markovian probablemente, la pregunta es independiente del clasificador que se utilizará) . Dadas varias instancias de capacitación, estoy buscando una manera de medir el rendimiento de un clasificador implementado, teniendo en cuenta el problema de sobreajuste de datos.Medición del rendimiento del algoritmo de clasificación
Esto es: dadas las muestras de entrenamiento N [1..100], si ejecuto el algoritmo de entrenamiento en cada una de las muestras, y utilizo estas mismas muestras para medir la aptitud, podría quedar atrapado en un problema de sobreajuste de datos. el clasificador sabrá las respuestas exactas para las instancias de entrenamiento, sin tener mucho poder predictivo, haciendo inútiles los resultados de la aptitud física.
Una solución obvia sería separar las muestras etiquetadas a mano en el entrenamiento y las muestras de prueba; y me gustaría aprender sobre los métodos para seleccionar las muestras estadísticamente significativas para el entrenamiento.
Libros blancos, punteros de libros y PDF muy apreciados!
http://en.wikipedia.org/wiki/Root-mean-square_error_of_cross-validation#K-fold_cross-validation (enlaces directos a k veces validación cruzada dentro del artículo wiki se enlazó) – JoeCool