上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 16 下一页
摘要: 1. softmax回归 伯努利分布(0-1分布 二分类),a56爆大奖在线娱乐们采用Logistic回归(用sigmoid函数映射到 0-1之间 输出预测概率)建模。 那么a56爆大奖在线娱乐们应该如何处理多分类问题?(比如要进行邮件分类;预测病情属于哪一类等等)。对于这种多项式分布a56爆大奖在线娱乐们使用softmax回归建模。 什么是多项分布? 阅读全文
posted @ 2023-12-16 12:18 jack-chen666 阅读(28) 评论(0) 推荐(0) 编辑
摘要: 1. 二分类 #!/usr/bin/env python # coding: utf-8 # In[7]: import numpy as np from sklearn import datasets from sklearn.linear_model import LogisticRegress 阅读全文
posted @ 2023-12-16 11:10 jack-chen666 阅读(4) 评论(0) 推荐(0) 编辑
摘要: 目录1. sigmoid函数2. 伯努利分布(0-1分布)3. 广义线性回归4. 逻辑回归 损失函数的推导5. 损失函数求导6. 代码并绘图 1. sigmoid函数 逻辑回归 logitstic regression 本质是二分类 sigmoid函数 是将 (-无穷, +无穷)区间上的y 映射到 阅读全文
posted @ 2023-12-16 00:31 jack-chen666 阅读(6) 评论(0) 推荐(0) 编辑
摘要: 目录1. 为什么要升维2 代码实现3, 总结 1. 为什么要升维 升维的目的是为了去解决欠拟合的问题的,也就是为了提高模型的准确率为目的的,因为当维度不够时,说白了就是对于预测结果考虑的因素少的话,肯定不能准确的计算出模型。 在做升维的时候,最常见的手段就是将已知维度进行相乘来构建新的维度,如下图所 阅读全文
posted @ 2023-12-13 22:24 jack-chen666 阅读(34) 评论(0) 推荐(0) 编辑
摘要: 目录1. 为什么要加上正则项2 L1稀疏 L2平滑3. 代码1--L2正则4 代码2--L2正则25. 代码3--l1正则6. ElasticNet 1. 为什么要加上正则项 防止模型的过拟合 需要在损失函数LOSS(MSE或者交叉熵)再加上正则项 常用的惩罚项有L1正则项或者L2正则项 其实L1和 阅读全文
posted @ 2023-12-13 00:42 jack-chen666 阅读(27) 评论(0) 推荐(0) 编辑
摘要: 目录1. 为什么要对样本进行 归一化2. 归一化的方式一 最大最小值3. 归一化的方式二 标准归一化 1. 为什么要对样本进行 归一化 样本之间的数量级是千差万别 有量纲的 例如: theta1 >> theta2 数值小的 theta2 反而能快速的 收敛 数值大的 theta1 收敛较慢 出现 阅读全文
posted @ 2023-12-11 21:08 jack-chen666 阅读(43) 评论(0) 推荐(0) 编辑
摘要: 1. 随机梯度下降法 梯度计算的时候 随机抽取一条 import numpy as np X = 2 * np.random.rand(100, 1) y = 4 + 3 * X + np.random.randn(100, 1) X_b = np.c_[np.ones((100, 1)), X] 阅读全文
posted @ 2023-12-11 20:47 jack-chen666 阅读(15) 评论(0) 推荐(0) 编辑
摘要: 1. 梯度下降法 梯度: 是一个theta 与 一条样本x 组成的 映射公式 可以看出梯度的计算量主要来自于 左边部分 所有样本参与 -- 批量梯度下降法 随机抽取一条样本参与 -- 随机梯度下降法 一小部分样本参与 -- 小批量 梯度下降法 2. epoch 与 batch epoch:一次迭代 阅读全文
posted @ 2023-12-11 20:16 jack-chen666 阅读(4) 评论(0) 推荐(0) 编辑
摘要: 1. 解析解 解析解的公式 import numpy as np import matplotlib.pyplot as plt # 有监督机器学习 # X y X = 2 * np.random.rand(100, 1) # np.random.rand # 100行 1列的 [0, 1) 之间均 阅读全文
posted @ 2023-12-11 19:47 jack-chen666 阅读(12) 评论(0) 推荐(0) 编辑
摘要: 最大似然估计 已经从某一分布中获取到n个样本 并且假设改样本的分布服从某一个分布f(θ), θ为需要估计的参数,根据这n个样本去推导θ的值 就叫做最大似然估计,假设样本服从某分布,根据样本计算出分布中的参数,参数计算出之后,就能去进行预测, 正态分布概率密度: 假设样本的误差 服从正态分布 最大似然 阅读全文
posted @ 2023-12-09 09:58 jack-chen666 阅读(47) 评论(0) 推荐(0) 编辑
上一页 1 ··· 6 7 8 9 10 11 12 13 14 ··· 16 下一页