专栏总目录(新)

当我们在谈论职场

余文毅:当我们在谈论职场:如何成为独当一面的算法工程师


当我们在谈论Deep Learning进阶

当我们在谈论Multi-Task Learning(多任务/多目标学习)


当我们在谈论推荐系统

当我们在谈论推荐算法

当我们在设计推荐场景训练系统

当我们在谈论AI

AI 的概念前些年可谓是甚嚣尘上,虽然今年(2018)由于新的风口的出现,其热度相对减弱,但得益于前些年各厂商的狂轰乱炸,“未来已来”的概念已经深入人心,大家似乎预感 AI 时代马上就要来临。那么,如今 AI 的现状究竟如何呢?在这个系列中,我会挑选一些当前有趣的 AI 应用,简单回顾它们的发展并实践(可能的话)其结果,(尽可能)展现一个真实的 AI 现状。包含的文章如下:

当我们在谈论 AI 作画:风格迁移

当我们在谈论 AI 说话:语音合成

当我们在谈论 AI 换脸:DeepFakes

当我们在谈论GBDT【完结】

由于 GBDT 效果一直比较好,加上 XGBoost 的易用性,GBDT 近几年在Kaggle等竞赛中受到追捧。同时,也带火了相关的一些 Ensemble Learning 算法。我想系统的梳理一下相关的知识点,但网上有关 GBDT 的文章相对琐碎,所以有了这个系列。这个系列主要从理论层面去梳理相关概念,包含的文章如下:

当我们在谈论GBDT:从 AdaBoost 到 Gradient Boosting

当我们在谈论GBDT:Gradient Boosting 用于分类与回归

当我们在谈论GBDT:其他 Ensemble Learning 算法


当我们在谈论 Deep Learning【完结】

Deep Learning 是众多机器学习算法中的一种。它起源于60年代的 Perceptron,经过80年代的 Artificial Neural Network,现阶段被称为 Deep Learning。迄今为止,是“有监督学习”领域最强大的算法类型,暂时还没有“之一”。同时,它也正在往”无监督“和”强化学习“领域扩散。网络上虽然已经有不少介绍 Deep Learning 的文章,但是大多不成系统,或作者并没有持续更新。因此便想自己写一个系列,梳理 Deep Learning 经典结构或算法,尽量保持更新。本系列包含的文章如下:

Supervised Learning:

当我们在谈论 Deep Learning:DNN 与 Backpropagation

当我们在谈论 Deep Learning:DNN 与它的参数们(壹)

当我们在谈论 Deep Learning:DNN 与它的参数们(贰)

当我们在谈论 Deep Learning:DNN 与它的参数们(叁)

当我们在谈论 Deep Learning:CNN 其常见架构(上)

当我们在谈论 Deep Learning:CNN 其常见架构(下)

当我们在谈论 Deep Learning:RNN 其常见架构

Unsupervised Learning:

当我们在谈论 Deep Learning:AutoEncoder 及其相关模型

当我们在谈论 Deep Learning:GAN 与 WGAN

Reinforcement Learning:

当我们在谈论 DRL:从Q-learning到DQN

当我们在谈论 DRL:从AC、PG 到 A3C、DDPG


当我们在谈论K-means【完结】

在网上找到的K-means或聚类相关的文章,内容大多较为琐碎,不太能帮助深入理解它。为了加深对K-means的理解,以便在实际中调参与修改算法,于是有了这个系列。此系列主要是从理论层面去理解K-means及相关算法,包含的文章如下:

当我们在谈论K-means:数据概述

当我们在谈论K-means:论文概述(1)

当我们在谈论K-means:论文概述(2)

当我们在谈论K-means:其他聚类算法

当我们在谈论K-means:总结

编辑于 2021-08-22 22:12