|
『课程目录』:
├─第10章 评价分类结果
│ 10-1 准确度的陷阱和混淆矩阵.mp4
│ 10-2 精准率和召回率.mp4
│ 10-3.mp4
│ 10-4.mp4
│ 10-5.mp4
│ 10-6.mp4
│ 10-7.mp4
│ 10-8.mp4
│
├─第11章 支撑向量机 SVM
│ 11-1.mp4
│ 11-2.mp4
│ 11-3.mp4
│ 11-4.mp4
│ 11-5.mp4
│ 11-6.mp4
│ 11-7.mp4
│ 11-8.mp4
│ 11-9.mp4
│
├─第12章 决策树
│ 12-1.mp4
│ 12-2 信息熵.mp4
│ 12-3 使用信息熵寻找最优划分.mp4
│ 12-4 基尼系数.mp4
│ 12-5 CART与决策树中的超参数.mp4
│ 12-6.mp4
│ 12-7.mp4
│
├─第13章 集成学习和随机森林
│ 13-1什么是集成学习.mp4
│ 13-2 SoftVoting Classifier.mp4
│ 13-3 Bagging和Pasting.mp4
│ 13-4 oob(Out-of-Bag)和关于Bagging的更多讨论.mp4
│ 13-5 随机森林和Extra-Trees.mp4
│ 13-6 Ada Boosting和Gradient Boosting.mp4
│ 13-7 Stacking.mp4
│
├─第14章 更多机器学习算法
│ 14-1 学习scikit-learn文档.mp4
│
├─第1章 欢迎来到 Python3 玩转机器学习
│ 1-1导学.mp4
│ 1-2 课程涵盖的内容和理念.mp4
│ 1-3 课程所使用的主要技术栈.mp4
│
├─第2章 机器学习基础
│ 2-1.1 机器学习世界的数据.mp4
│ 2-1.2 机器学习世界的数据.mp4
│ 2-2 机器学习的主要任务.mp4
│ 2-3 监督学习,非监督学习,半监督学习和增强学习.mp4
│ 2-4 批量学习,在线学习,参数学习和非参数学习.mp4
│ 2-5 和机器学习相关的哲学思考.mp4
│ 2-6 课程使用环境搭建.mp4
│
├─第3章 Jupyter Notebook, numpy和m
│ 3-1.1 jupyter notebook基础.mp4
│ 3-1.2 jupyter notebook基础.mp4
│ 3-10 Numpy中的比较和FancyIndexing.mp4
│ 3-11 Matplotlib数据可视化基础.mp4
│ 3-12 数据加载和简单的数据探索.mp4
│ 3-2 jupyter notebook中的魔法命令.mp4
│ 3-3 Numpy数据基础.mp4
│ 3-4 创建numpy数组和矩阵.mp4
│ 3-5 Numpy数组的基本操作.mp4
│ 3-6 Numpy数组的合并与分割.mp4
│ 3-7 Numpy中的矩阵运算.mp4
│ 3-8 Numpy中的聚合运算.mp4
│ 3-9 Numpy中的arg运算.mp4
│
├─第4章 最基础的分类算法-k近邻算法 kNN
│ 4-1 k近邻算法基础.mp4
│ 4-2 scikit-learn中的机器学习算法封装.mp4
│ 4-3 训练数据集,测试数据集.mp4
│ 4-4 分类准确度.mp4
│ 4-5 超参数.mp4
│ 4-6 网格搜索与k近邻算法中更多超参数.mp4
│ 4-7 数据归一化.mp4
│ 4-8 scikit-learn中的Scaler.mp4
│ 4-9 更多有关k近邻算法的思考.mp4
│
├─第5章 线性回归法
│ 5-1.1 简单线性回归.mp4
│ 5-1.2 简单线性回归.mp4
│ 5-10 线性回归的可解性和更多思考.mp4
│ 5-2 最小二乘法.mp4
│ 5-3 简单线性回归的实现.mp4
│ 5-4 向量化.mp4
│ 5-5 衡量线性回归法的指标 MSE,RMS,MAE.mp4
│ 5-6 最好的衡量线性回归法的指标 R Squared.mp4
│ 5-7 多元线性回归和正规方程解.mp4
│ 5-8 实现多元线性回归.mp4
│ 5-9 使用scikit-learn解决回归问题.mp4
│
├─第6章 梯度下降法
│ 6-1 什么是梯度下降法.mp4
│ 6-2 模拟实现梯度下降法.mp4
│ 6-3 线性回归中的梯度下降法.mp4
│ 6-4 实现线性回归中的梯度下降法.mp4
│ 6-5 梯度下降的向量化和数据标准化.mp4
│ 6-6 随机梯度下降法.mp4
│ 6-7 scikit-learn中的随机梯度下降法.mp4
│ 6-8 如何确定梯度计算的准确性 调试梯度下降法.mp4
│ 6-9 有关梯度下降法的更多深入讨论.mp4
│
├─第7章 PCA与梯度上升法
│ 7-1 什么是PCA.mp4
│ 7-2.1 使用梯度上升法求解PCA问题.mp4
│ 7-2.2 使用梯度上升法求解PCA问题.mp4
│ 7-3 求数据的主成分PCA.mp4
│ 7-4 求数据的前n个主成分.mp4
│ 7-5 高维数据映射为低维数据.mp4
│ 7-6 scikit-learn中的PCA.mp4
│ 7-7 试手MNIST数据集.mp4
│ 7-8 使用PCA对数据进行降噪.mp4
│ 7-9 人脸识别与特征脸.mp4
│
├─第8章 多项式回归与模型泛化
│ 8-1 什么是多项式回归.mp4
│ 8-10 L1,L2和弹性网络.mp4
│ 8-2 scikit-learn中的多项式回归于pipeline.mp4
│ 8-3 过拟合与前拟合.mp4
│ 8-4 为什么要训练数据集与测试数据集.mp4
│ 8-5 学习曲线.mp4
│ 8-6 验证数据集与交叉验证.mp4
│ 8-7 偏差方差平衡.mp4
│ 8-8 模型泛化与岭回归.mp4
│ 8-9 LASSO.mp4
│
└─第9章 逻辑回归
9-1 什么是逻辑回归.mp4
9-2 逻辑回归的损失函数.mp4
9-3.1 逻辑回归损失函数的梯度.mp4
9-3.2 逻辑回归损失函数的梯度.mp4
9-4 实现逻辑回归算法.mp4
9-5 决策边界.mp4
9-6 在逻辑回归中使用多项式特征.mp4
9-7 scikit-learn中的逻辑回归.mp4
9-8 OvR与OvO.mp4
『课程下载』:
|
|