-
01 – Como criar e otimizar um modelo de “Árvore de Decisão” para “Regressão”
-
02 – Como criar e otimizar um modelo de “Árvore de Decisão” para “Classificação Binária”
-
03 – Como utilizar o algoritmo “vizinho mais próximo” (nearest neighbours) para “Regressão”
-
04 – Como utilizar o algoritmo “vizinho mais próximo” (nearest neighbours) para “Classificação”
-
05 – Como fazer Agrupamento Aglomerativo – “Agglomerative Clustering”
-
06 – Como fazer Clusterização com o algoritmo KMeans – “KMeans Clustering”
-
07 – Como fazer Clusterização baseado em afinidade
-
08 – Como fazer Clusterização baseado no algoritmo DBSCAN – “DBSCAN Clustering”
-
09 – Como fazer Clusterização baseada na abordagem do deslocamento médio (MinShift)
-
10 – Como utilizar a Árvore de Classificação e Regressão
-
11 – Como utilizar o algoritmo classificador e regressor – AdaBoost
-
12 – Como utilizar o algoritmo classificador e regressor – RandomForest
-
13 – Como utilizar o algoritmo classificador e regressor – GradientBoosting
-
14 – Como usar o classificador e regressor MLP – Perceptron Multicamadas
-
15 – Como usar o classificador e regressor “XgBoost” – reforço gradual (Gradient boosting)
-
16 – Como usar o classificador e regressor “CatBoost”
-
17 – Como usar o classificador e regressor – “LightGBM”
-
18 – Como usar o classificador e regressor “SVM” – Support Vector Machine
-
19 – Como importar arquivos CSV
-
20 – Como classificar o “vinho” com modelos lineares (Classificação Multiclasse): “sklearn” – Multiclass Classification
-
21 – Como classificar o “vinho” com modelos lineares (Classificação Multiclasse): “sklearn” – Naive Bayes
-
22 – Como classificar o “vinho” com modelos lineares (Classificação Multiclasse): “sklearn” – Nearest Neighbors
-
23 – Como classificar o “vinho” com modelos lineares (Classificação Multiclasse): “sklearn” – LDA e QDA
-
24 – Como classificar o “vinho” com modelos lineares (Classificação Multiclasse): “sklearn” – Tree Model
-
25 – Como classificar o “vinho” com modelos lineares (Classificação Multiclasse): “sklearn” – Ensemble (Bagging) model
-
26 – Como classificar o “vinho” com modelos lineares (Classificação Multiclasse): “sklearn” – Ensemble (Boosting) model
-
27 – Como classificar o “vinho” com modelos lineares (Classificação Multiclasse): “sklearn” – Diferentes “Boosting models”
-
28 – Como classificar o “vinho” com modelos lineares (Classificação Multiclasse): “sklearn” – Visualizar Tree Model
-
29 – Como utilizar a métrica de classificação
-
30 – Como utilizar o Métrico de Regressão
-
31 – Como comparar algoritmos de classificação do “sklearn”
-
32 – Como implementar o conjunto de votação – “Ensemble Model”
-
33 – Como salvar modelos treinados
-
34 – Como visualizar uma Arvore “XGBoost”
-
35 – Como visualizar a importância das características “XGBoost”
-
36 – Como avaliar o modelo “XGBoost” com curvas de aprendizagem
-
37 – Como avaliar o modelo “XGBoost” com curvas de aprendizagem
-
38 – Como paralelizar a execução de “XGBoost” e validação cruzada (cross validation)
-
39 – Como otimizar o número de árvores no XGBoost