Parte #1 - Introducción a la librería, dataset a trabajar e importancia en la división de los datos
Parte #2 - N-Fold Cross-validation, setup() y compare_models()
Parte #3 - create_model(), tune_model(), plot_model(), evaluate_model() y finalize_model()
Parte #4 - predict_model(), save_model(), load_model(), Pros y Cons de la librería, Conslusiones
Este tutorial abarca todo el proceso de ML, desde la ingestión de datos, el preprocesamiento, el entrenamiento del modelo, el ajuste de los hiperparámetros, la predicción y el almacenamiento del modelo para su uso posterior.
Parte #2 - N-Fold Cross-validation, setup() y compare_models()
Parte #3 - create_model(), tune_model(), plot_model(), evaluate_model() y finalize_model()
Parte #4 - predict_model(), save_model(), load_model(), Pros y Cons de la librería, Conslusiones
Este tutorial abarca todo el proceso de ML, desde la ingestión de datos, el preprocesamiento, el entrenamiento del modelo, el ajuste de los hiperparámetros, la predicción y el almacenamiento del modelo para su uso posterior.
“Trabajando el Pipeline de Machine Learning con PyCaret Parte 1”– Daniel MoralesTweet