Skip to content

Commit

Permalink
format
Browse files Browse the repository at this point in the history
  • Loading branch information
chenzomi12 committed May 7, 2024
1 parent 1a9cbcd commit 8d03e81
Show file tree
Hide file tree
Showing 162 changed files with 2,011 additions and 2,176 deletions.
8 changes: 4 additions & 4 deletions 01Introduction/01present.md
Original file line number Diff line number Diff line change
Expand Up @@ -97,9 +97,9 @@

因此对于神经网络的研究就此停滞不前,这也为后来 AI 的两大驱动力,提升硬件算力和模型通过更多的层和非线性计算(激活函数和最大池化等)增加非线性能力的演进埋下了伏笔。

1974 年,Paul Werbos 在博士论文 “Beyond regression : new tools for prediction and analysis in the behavioral sciences”[<sup>[7]</sup>] 中提出了用误差反向传播来训练人工神经网络,使得训练多层神经网络成为可能,有效解决了异或回路问题。这个工作奠定了之后 AI 的训练方式, AI 训练系统中最为重要的执行步骤就是在不断的进行反向传播训练。同时 AI 的编程语言和框架为了支持反向传播训练,默认都提供自动微分(Automatic Differentiation)的功能。
1974 年,Paul Werbos 在博士论文 “Beyond regression : new tools for prediction and analysis in the behavioral sciences”[<sup>[7]</sup>] 中提出了用误差反向传播来训练人工神经网络,使得训练多层神经网络成为可能,有效解决了异或回路问题。这个工作奠定了之后 AI 的训练方式,AI 训练系统中最为重要的执行步骤就是在不断的进行反向传播训练。同时 AI 的编程语言和框架为了支持反向传播训练,默认都提供自动微分(Automatic Differentiation)的功能。

1986 年, AI(Deep Learning)一词由 Rina Dechter 于 1986 年 AAAI 论文“LEARNING WHILE SEARCHING IN CONSTRAINT-SATISFACTION-PROBLEMS”[<sup>[8]</sup>] 引入机器学习社区。目前常常所说的人工智能系统主要以 AI 系统为代表性系统。
1986 年,AI(Deep Learning)一词由 Rina Dechter 于 1986 年 AAAI 论文“LEARNING WHILE SEARCHING IN CONSTRAINT-SATISFACTION-PROBLEMS”[<sup>[8]</sup>] 引入机器学习社区。目前常常所说的人工智能系统主要以 AI 系统为代表性系统。

1989 年,Yann LeCun 在论文“Backpropagation Applied to Handwritten Zip Code Recognition”[<sup>[9]</sup>] 提出了一种用反向传导进行更新的卷积神经网络,称为 LeNet 。启发了后续卷积神经网络的研究与发展。卷积神经网络为 AI 系统的重要负载,大多数的 AI 系统都需要在卷积神经网络上验证性能,在未来会看到很多 AI 系统的基准测试中也会引入大量的卷积神经网络。

Expand All @@ -123,13 +123,13 @@

![](images/01Present09.png)

截至到 2012 年这个时间点,基础架构的线索中,以英伟达(NVIDIA)为代表的芯片厂商已经连续发布了 Tesla,Fermi,[Kepler](https://en.wikipedia.org/wiki/Kepler_(microarchitecture)) 架构系列商用 GPU 和多款消费级 GPU,这些 GPU 已经开始被研究工作引用加速 AI 算法与模型的研究,被业界公司用于人工智能产品。但同时从 AlexNet 工作中看到,作还基于 CUDA API 进行编程实现了[cuda-convnet](https://code.google.com/archive/p/cuda-convnet) AI 系统与工具伴随着 AI 算法与模型的突破与需求呼之欲出,在后面的章节中将会总结和展望 AI 系统本身的脉络,现状与发展。
截至到 2012 年这个时间点,基础架构的线索中,以英伟达(NVIDIA)为代表的芯片厂商已经连续发布了 Tesla,Fermi,[Kepler](https://en.wikipedia.org/wiki/Kepler_(microarchitecture)) 架构系列商用 GPU 和多款消费级 GPU,这些 GPU 已经开始被研究工作引用加速 AI 算法与模型的研究,被业界公司用于人工智能产品。但同时从 AlexNet 工作中看到,作还基于 CUDA API 进行编程实现了[cuda-convnet](https://code.google.com/archive/p/cuda-convnet),AI 系统与工具伴随着 AI 算法与模型的突破与需求呼之欲出,在后面的章节中将会总结和展望 AI 系统本身的脉络,现状与发展。

在之后的时间里,以 [ImageNet](https://www.image-net.org/),等公开的各领域(例如,计算机视觉,自然语言处理)数据集为代表的各个应用领域的公开数据集或基准测试,驱动着以卷积神经网络 CNN,循环神经网络 RNN,Transformer,图神经网络 GNN 为代表的 AI 模型网络结构的发展和创新。

![](images/01Present10.png)

基准测试的好处是研究者从繁杂的应用问题建模和数据预处理工作跳出,能够在给定数据集上尽可能排除其他因素干扰,更为公平对比已有工作,并研发创新模型结构。在当前的社区工作中可以观察到, AI 模型网络结构越来越深,新结构层出不穷,同时不断驱动 AI 系统的演化。模型作为上层应用负载,是驱动系统演化的驱动力之一。关注模型结构和 AI 的应用场景变化,能够让系统研究者和工程师把握系统发展的趋势,并设计出符合潮流和应对未来变化的系统。
基准测试的好处是研究者从繁杂的应用问题建模和数据预处理工作跳出,能够在给定数据集上尽可能排除其他因素干扰,更为公平对比已有工作,并研发创新模型结构。在当前的社区工作中可以观察到,AI 模型网络结构越来越深,新结构层出不穷,同时不断驱动 AI 系统的演化。模型作为上层应用负载,是驱动系统演化的驱动力之一。关注模型结构和 AI 的应用场景变化,能够让系统研究者和工程师把握系统发展的趋势,并设计出符合潮流和应对未来变化的系统。

## 小结与讨论

Expand Down
4 changes: 2 additions & 2 deletions 01Introduction/02Develop.md
Original file line number Diff line number Diff line change
Expand Up @@ -88,9 +88,9 @@ AI 起源于上世纪五十年代,经历了几次繁荣与低谷,直到 2016

例如,以下几种服务中沉淀和形成了相应领域代表性的数据集:

- 搜索引擎(Search Engine):在图像检索(Image Search)邻域出现了如 ImageNet, Coco 等计算机视觉数据集。在文本检索(Text Search)出现了 Wikipedia 等自然语言处理数据集。
- 搜索引擎(Search Engine):在图像检索(Image Search)邻域出现了如 ImageNet,Coco 等计算机视觉数据集。在文本检索(Text Search)出现了 Wikipedia 等自然语言处理数据集。

- 移动应用(Application):移动应用数据分析是用户获取和留存的强劲引擎。国内出现了优质的数据源的公司如知乎和小红书,传统的贴吧如天涯论坛、百度网吧等充斥广告等地方已经不再是优质数据源。各家移动互联网如淘宝、拼多多收集了大量的用户购买和浏览记录,形成庞大的推荐系统数据集, 广告数据集。
- 移动应用(Application):移动应用数据分析是用户获取和留存的强劲引擎。国内出现了优质的数据源的公司如知乎和小红书,传统的贴吧如天涯论坛、百度网吧等充斥广告等地方已经不再是优质数据源。各家移动互联网如淘宝、拼多多收集了大量的用户购买和浏览记录,形成庞大的推荐系统数据集,广告数据集。

![](images/02Develop05.png)

Expand Down
4 changes: 2 additions & 2 deletions 01Introduction/03architecture.md
Original file line number Diff line number Diff line change
Expand Up @@ -10,11 +10,11 @@ AI 系统设计本身需要各个环节通盘考量,无论是系统性能,

### 基本概念

从类比的角度理解 AI 系统:AI时代连接硬件和上层应用的中间层基础设施
从类比的角度理解 AI 系统:AI 时代连接硬件和上层应用的中间层基础设施

传统本地部署时代,三大基础软件(数据库、操作系统、中间件)实现控制硬件交互、存储管理数据、网络通信调度等共性功能,抽象并隔绝底层硬件系统的复杂性,让上层应用开发者能够专注于业务逻辑和应用功能本身的创新实现。

云时代同理,形成了IaaS、PaaS、SaaS三层架构,其中PaaS层提供应用开发环境和基础的数据分析管理服务。类比来看,我们认为,进入AI时代也有承担类似功能的、连接算力和应用的基础设施中间层即 AI 系统,提供基础模型服务、赋能模型微调和应用开发。
云时代同理,形成了 IaaS、PaaS、SaaS 三层架构,其中 PaaS 层提供应用开发环境和基础的数据分析管理服务。类比来看,我们认为,进入 AI 时代也有承担类似功能的、连接算力和应用的基础设施中间层即 AI 系统,提供基础模型服务、赋能模型微调和应用开发。

![](images/03Architecture06.png)

Expand Down
4 changes: 2 additions & 2 deletions 01Introduction/04sample.md
Original file line number Diff line number Diff line change
Expand Up @@ -31,7 +31,7 @@ $$\theta = argmin_{\theta}\sum[Loss(f_{\theta}(x), y)]$$

$$\theta = \theta - \alpha \delta_{\theta}Loss(\theta)$$

其中, $\alpha$ 也称为学习率(Learning Rate)。当神经网络模型训练完成,就可以通过 $\hat{y} = f_\theta(x)$ 进行推理,使用和部署已经训练好的网络模型。
其中,$\alpha$ 也称为学习率(Learning Rate)。当神经网络模型训练完成,就可以通过 $\hat{y} = f_\theta(x)$ 进行推理,使用和部署已经训练好的网络模型。

如图所示,左上角展示输入为手写数字图像,输出为分类向量,中间矩形为各层输出的特征图(Feature Map),我们将其映射为具体的实现代码,其结构通过图右侧定义出来。

Expand All @@ -47,7 +47,7 @@ $$\theta = \theta - \alpha \delta_{\theta}Loss(\theta)$$
>
> - **广义的算子(Function)**:AI 框架中对算子模块的具体实现,涉及到调度模块,Kernel 模块,求导模块以及代码自动生成模块。
>
> 对于神经网络模型而言,算子是网络模型中涉及到的计算函数。在 PyTorch 中,算子对应层中的计算逻辑,例如:卷积层(Convolution Layer)中的卷积算法,是一个算子;全连接层(Fully-connected Layer, FC layer)中的权值求和过程,也是一个算子。
> 对于神经网络模型而言,算子是网络模型中涉及到的计算函数。在 PyTorch 中,算子对应层中的计算逻辑,例如:卷积层(Convolution Layer)中的卷积算法,是一个算子;全连接层(Fully-connected Layer,FC layer)中的权值求和过程,也是一个算子。
### 网络模型构建

Expand Down
Loading

0 comments on commit 8d03e81

Please sign in to comment.