These notes were originally developed as lecture notes for a category theory course. They should be well-suited to anyone that wants to learn category theory from scratch and has a scientific mind. There is no need to know advanced mathematics, nor any of the disciplines where category theory is traditionally applied, such as algebraic geometry or theoretical computer science. The only knowledge that is assumed from the reader is linear algebra. All concepts are explained by giving concrete examples from different, non-specialized areas of mathematics (such as basic group theory, graph theory, and probability). Not every example is helpful for every reader, but hopefully every reader can find at least one helpful example per concept. The reader is encouraged to read all the examples, this way they may even learn something new about a different field. Particular emphasis is given to the Yoneda lemma and its significance, with both intuitive explanations, detailed proofs, and specific examples. Another common theme in these notes is the relationship between categories and directed multigraphs, which is treated in detail. From the applied point of view, this shows why categorical thinking can help whenever some process is taking place on a graph. From the pure math point of view, this can be seen as the 1-dimensional first step into the theory of simplicial sets. Finally, monads and comonads are treated on an equal footing, differently to most literature in which comonads are often overlooked as "just the dual to monads". Theorems, interpretations and concrete examples are given for monads as well as for comonads.


翻译:这些笔记最初是作为分类理论课程的讲座注释而开发的。 它们应该非常适合任何想要从头开始学习分类理论并具有科学思维的人。 不需要了解高级数学, 也不需要了解任何传统上使用分类理论的学科, 如代数几何或理论计算机科学。 读者唯一假定的知识是线性代数。 所有概念的解释都是通过提供不同、 非专业数学领域的具体例子( 如基本群数、 图形理论和概率) 来解释。 不是每个读者都有用, 但希望每个读者都能找到至少一个有用的每个概念的例子。 不需要了解高级数学, 也不需要了解任何传统上使用分类理论的学科, 如代数数学或理论理论理论。 这些笔记中的另一个常见主题是分类和定向多面图之间的关系, 详细处理。 从应用角度看, 直线式思维可以帮助每个读者找到至少每个概念都能找到一个有用的例子。 鼓励每个读者阅读所有的例子, 这样他们甚至可以学到一些关于不同领域的新东西, 比如, 从纯数学和数学的底部, 也可以作为数学的底部, 的底部, 。 从纯数学和数学的底部, 的底部, 的底部, 可以作为双部, 的底部,, 的底部,,, 直系, 直系, 直系, 直系, 直系, 直系, 直系的底部, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直为, 直系, 直为 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系, 直系,直系, 直系, 直系, 直系, 直系,

0
下载
关闭预览

相关内容

数据科学导论,54页ppt,Introduction to Data Science
专知会员服务
42+阅读 · 2020年7月27日
强化学习最新教程,17页pdf
专知会员服务
181+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
机器学习线性代数速查
机器学习研究会
19+阅读 · 2018年2月25日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
【推荐】深度学习思维导图
机器学习研究会
15+阅读 · 2017年8月20日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年4月2日
One-Class Classification: A Survey
Arxiv
8+阅读 · 2021年1月8日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Learning From Positive and Unlabeled Data: A Survey
Arxiv
5+阅读 · 2018年11月12日
Arxiv
26+阅读 · 2018年8月19日
The Matrix Calculus You Need For Deep Learning
Arxiv
12+阅读 · 2018年7月2日
VIP会员
相关资讯
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
机器学习线性代数速查
机器学习研究会
19+阅读 · 2018年2月25日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
【推荐】深度学习思维导图
机器学习研究会
15+阅读 · 2017年8月20日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
0+阅读 · 2021年4月2日
One-Class Classification: A Survey
Arxiv
8+阅读 · 2021年1月8日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Learning From Positive and Unlabeled Data: A Survey
Arxiv
5+阅读 · 2018年11月12日
Arxiv
26+阅读 · 2018年8月19日
The Matrix Calculus You Need For Deep Learning
Arxiv
12+阅读 · 2018年7月2日
Top
微信扫码咨询专知VIP会员