深度学习与机器学习笔记
First Post:
Last Update:
Last Update:
mean(平均值)
热数据
1 | sns.heatmap(dataframe.corr(), annot=True, fmt='.1f') |
(例子用于理解)
对比两个最小值的均值
(第一个age 提取出年龄)([:2](把排好序的的两个拿出))
1 | np.mean([age for name ,age in sorted(person_and_age.items(), key = lambda e: e[1])[:2]]) |
对比两个最小值的均值
【:topn】(最前的两个数值)
history_price(数据)
e[0](取 面积:价格 的面积)
1 | def find_price_by_similar(history_price,query_x, topn=3): |
回归预测结果产生的是一个数值,分类产生一个类别
KNN==>K-Neighbor-Nearest
拟合效果 是获取最优的k,b的问题
损失函数:
Loss
越接近0,越准确
1 | 𝑓(𝑟𝑚)=𝑘∗𝑟𝑚+𝑏 |
怎么获取最优的k&b?
1.直接用微积分的方法做计算(最小二乘法)(简单才用,基本不用)
2.用随机模拟的方法来做(随机生成一堆数)也叫:蒙特卡洛模拟
1 | def loss(y_hat, y): |
1 | 蒙特卡洛模拟 |
1 | def partial_k(k, b, x, y): |
深度学习的核心 : 通过梯度下降的方法,获得一组参数,是的loss最小
loss偏导式 + 梯度下降
将课堂代码中的L2-Loss 变成L1Loss 并且实现梯度下降
1 | 𝐿2−𝐿𝑜𝑠𝑠(𝑦,𝑦̂ )=1/𝑛*∑(𝑦̂ −𝑦)2 |