Web Analytics
Avisos
Vaciar todo

¡Bienvenido a zonaia 😀!


Un foro de ayuda para aprender a crear chatbots.


Aprende ManyChat, Chatfuel y Dialogflow.


¡No esperes más y únete a nosotros hoy!


Datos de entrenamiento y prueba  

 

Leonardo Mayorga
(@admin)
Miembro Admin
Registrado: hace 2 a帽os
Respuestas: 474
25/09/2018 9:23 pm  

Los datos de entrenamiento y los datos de prueba son dos conceptos importantes en el aprendizaje autom谩tico. Este cap铆tulo los discute en detalle.

Datos de entrenamiento

Las observaciones en el conjunto de entrenamiento forman la experiencia que el algoritmo usa para aprender. En problemas de aprendizaje supervisado, cada observaci贸n consiste en una variable de salida observada y una o m谩s variables de entrada observadas.

Datos de prueba

El conjunto de prueba es un conjunto de observaciones utilizadas para evaluar el rendimiento del modelo utilizando alguna medida de rendimiento. Es importante que no se incluyan observaciones del conjunto de entrenamiento en el conjunto de prueba. Si el conjunto de prueba contiene ejemplos del conjunto de entrenamiento, ser谩 dif铆cil evaluar si el algoritmo ha aprendido a generalizarse a partir del conjunto de entrenamiento o simplemente lo ha memorizado.

Un programa que se generaliza bien podr谩 realizar efectivamente una tarea con nuevos datos. En contraste, un programa que memoriza los datos de entrenamiento aprendiendo un modelo demasiado complejo podr铆a predecir los valores de la variable de respuesta para el conjunto de entrenamiento con precisi贸n, pero no podr谩 predecir el valor de la variable de respuesta para los nuevos ejemplos. Memorizar el conjunto de entrenamiento se llama ajuste excesivo. Un programa que memoriza sus observaciones puede no realizar bien su tarea, ya que podr铆a memorizar relaciones y estructuras que son ruido o coincidencia. La memorizaci贸n y generalizaci贸n del equilibrio, o el ajuste excesivo y el ajuste insuficiente, es un problema com煤n a muchos algoritmos de aprendizaje autom谩tico. La regularizaci贸n se puede aplicar a muchos modelos para reducir el exceso de ajuste.

Adem谩s de los datos de entrenamiento y prueba, a veces se requiere un tercer conjunto de observaciones, llamado conjunto de validaci贸n o retenci贸n. El conjunto de validaci贸n se usa para ajustar variables llamadas hiperpar谩metros, que controlan c贸mo se aprende el modelo. El programa a煤n se eval煤a en el conjunto de pruebas para proporcionar una estimaci贸n de su desempe帽o en el mundo real; su desempe帽o en el conjunto de validaci贸n no debe usarse como una estimaci贸n del desempe帽o del modelo en el mundo real, ya que el programa se ajust贸 espec铆ficamente a los datos de validaci贸n. Es com煤n dividir un solo conjunto de observaciones supervisadas en equipos de entrenamiento, validaci贸n y prueba. No existen requisitos para los tama帽os de las particiones, y pueden variar de acuerdo con la cantidad de datos disponibles. Es com煤n asignar el 50 por ciento o m谩s de los datos al conjunto de entrenamiento, el 25 por ciento al conjunto de prueba y el resto al conjunto de validaci贸n.

Algunos conjuntos de entrenamiento pueden contener solo unos cientos de observaciones; otros pueden incluir millones. El almacenamiento econ贸mico, la mayor conectividad de red, la ubicuidad de los tel茅fonos inteligentes repletos de sensores y las actitudes cambiantes hacia la privacidad han contribuido al estado actual de los grandes datos, o conjuntos de capacitaci贸n con millones o miles de millones de ejemplos.

Sin embargo, los algoritmos de aprendizaje autom谩tico tambi茅n siguen la m谩xima "basura adentro, basura afuera". Un estudiante que estudia para una prueba leyendo un libro de texto grande y confuso que contiene muchos errores probablemente no tendr谩 mejor puntaje que un estudiante que lee un libro de texto corto pero bien escrito. De forma similar, un algoritmo formado en una gran colecci贸n de datos ruidosos, irrelevantes o etiquetados incorrectamente no tendr谩 un rendimiento mejor que un algoritmo formado en un conjunto de datos m谩s peque帽o que sea m谩s representativo de los problemas en el mundo real.

Muchos conjuntos de entrenamiento supervisado se preparan manualmente o mediante procesos semiautom谩ticos. Crear una gran colecci贸n de datos supervisados 鈥嬧媝uede ser costoso en algunos dominios. Afortunadamente, varios conjuntos de datos se incluyen con scikit-learn, lo que permite a los desarrolladores centrarse en la experimentaci贸n con modelos en su lugar.

Durante el desarrollo, y particularmente cuando los datos de entrenamiento son escasos, se puede usar una pr谩ctica llamada validaci贸n cruzada para entrenar y validar un algoritmo con los mismos datos. En la validaci贸n cruzada, los datos de entrenamiento est谩n divididos. El algoritmo se entrena usando todas menos una de las particiones, y se prueba en la partici贸n restante. Las particiones se rotan varias veces para que el algoritmo se entrene y eval煤e en todos los datos.

Tenga en cuenta, por ejemplo, que el conjunto de datos original est谩 dividido en cinco subconjuntos de igual tama帽o, etiquetados de A a E. Inicialmente, el modelo se entrena en las particiones B a E y se prueba en la partici贸n A. En la siguiente iteraci贸n, el modelo se entrena en particiones A, C, D y E, y probado en la partici贸n B. Las particiones se rotan hasta que los modelos hayan sido entrenados y probados en todas las particiones. La validaci贸n cruzada proporciona una estimaci贸n m谩s precisa del rendimiento del modelo que la prueba de una sola partici贸n de los datos.

Medidas de rendimiento: sesgo y varianza

Se pueden usar muchas m茅tricas para medir si un programa est谩 aprendiendo o no a realizar su tarea de manera m谩s efectiva. Para problemas de aprendizaje supervisado, muchas medidas de rendimiento miden el n煤mero de errores de predicci贸n.

Hay dos causas fundamentales de error de predicci贸n para un modelo: sesgo y varianza. Supongamos que tiene muchos conjuntos de entrenamiento que son 煤nicos, pero igualmente representativos de la poblaci贸n. Un modelo con un sesgo alto producir谩 errores similares para una entrada independientemente del conjunto de entrenamiento con el que se entren贸; el modelo sesga sus propias suposiciones sobre la relaci贸n real sobre la relaci贸n demostrada en los datos de capacitaci贸n. Un modelo con alta varianza, por el contrario, producir谩 diferentes errores para una entrada dependiendo del conjunto de entrenamiento con el que se entren贸. Un modelo con un alto sesgo es inflexible, pero un modelo con alta varianza puede ser tan flexible que modele el ruido en el conjunto de entrenamiento. Es decir, un modelo con alta varianza sobrepasa los datos de entrenamiento, mientras que un modelo con alto sesgo no coincide con los datos de entrenamiento.

Para continuar viendo el resto de contenido por favor Crea Una Cuenta o Inicia Sesi贸n


Citar
Compartir:
Sitio web hecho con 鉂 para el mundo