一个关于机器学习中常用损失函数的小教程或介绍,包括交叉损失、L1损失、L2损失和hinge损失。实用的细节包括PyTorch。

成为VIP会员查看完整内容
81

相关内容

“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。” ——中文维基百科

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【2022新书】机器学习基础,225页pdf,Machine Learning The Basics
损失函数技术总结及Pytorch使用示例
极市平台
2+阅读 · 2022年4月10日
一文理解Ranking Loss/Margin Loss/Triplet Loss
极市平台
15+阅读 · 2020年8月10日
浅谈主动学习(Active Learning)
凡人机器学习
30+阅读 · 2020年6月18日
度量学习中的pair-based loss
极市平台
65+阅读 · 2019年7月17日
PyTorch 学习笔记(六):PyTorch的十七个损失函数
极市平台
47+阅读 · 2019年5月13日
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
7+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2008年12月31日
Max-Margin Contrastive Learning
Arxiv
17+阅读 · 2021年12月21日
Arxiv
11+阅读 · 2021年3月25日
A Modern Introduction to Online Learning
Arxiv
19+阅读 · 2019年12月31日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
25+阅读 · 2018年8月19日
VIP会员
相关资讯
损失函数技术总结及Pytorch使用示例
极市平台
2+阅读 · 2022年4月10日
一文理解Ranking Loss/Margin Loss/Triplet Loss
极市平台
15+阅读 · 2020年8月10日
浅谈主动学习(Active Learning)
凡人机器学习
30+阅读 · 2020年6月18日
度量学习中的pair-based loss
极市平台
65+阅读 · 2019年7月17日
PyTorch 学习笔记(六):PyTorch的十七个损失函数
极市平台
47+阅读 · 2019年5月13日
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
相关基金
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
7+阅读 · 2009年12月31日
国家自然科学基金
4+阅读 · 2008年12月31日
相关论文
Max-Margin Contrastive Learning
Arxiv
17+阅读 · 2021年12月21日
Arxiv
11+阅读 · 2021年3月25日
A Modern Introduction to Online Learning
Arxiv
19+阅读 · 2019年12月31日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
25+阅读 · 2018年8月19日
微信扫码咨询专知VIP会员