Skip to content

Commit

Permalink
修复docs\api\paddle\Tenso 等 API 的文档 (#6229)
Browse files Browse the repository at this point in the history
文档修复,BUG确认赛
  • Loading branch information
yuchen202 authored Oct 18, 2023
1 parent f9e276b commit a9fde7a
Show file tree
Hide file tree
Showing 6 changed files with 7 additions and 7 deletions.
2 changes: 1 addition & 1 deletion docs/api/paddle/Tensor_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -231,7 +231,7 @@ stop_gradient
:::::::::

查看一个 Tensor 是否计算并传播梯度,如果 stop_gradient 为 True,则该 Tensor 不会计算梯度,并会阻绝 Autograd 的梯度传播。
反之,则会计算梯度并传播梯度。用户自行创建的的 Tensor,默认是 True,模型参数的 stop_gradient 都为 False。
反之,则会计算梯度并传播梯度。用户自行创建的 Tensor,默认是 True,模型参数的 stop_gradient 都为 False。

**代码示例**

Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/bmm_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -10,7 +10,7 @@ bmm
对输入 x 及输入 y 进行矩阵相乘。

两个输入的维度必须等于 3,并且矩阵 x 和矩阵 y 的第一维必须相等。同时矩阵 x 的第二维必须等于矩阵 y 的第三维
两个输入的维度必须等于 3,并且矩阵 x 和矩阵 y 的第一维必须相等。同时矩阵 x 的第三维必须等于矩阵 y 的第二维

例如:若 x 和 y 分别为 (b, m, k) 和 (b, k, n) 的矩阵,则函数的输出为一个 (b, m, n) 的矩阵。

Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/distributed/fleet/Fleet_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -98,7 +98,7 @@ int
worker_num()
'''''''''

返回当前全部训练节点中`workjer`节点的个数
返回当前全部训练节点中`worker`节点的个数

**返回**
int
Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/metric/Recall_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -67,7 +67,7 @@ accumulate()

**返回**

precision 值,一个标量。
recall 值,一个标量。


name()
Expand Down
4 changes: 2 additions & 2 deletions docs/api/paddle/nn/LSTM_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -9,7 +9,7 @@ LSTM
**长短期记忆网络**

长短期记忆网络(LSTM),根据输出序列和给定的初始状态计算返回输出序列和最终状态。在该网络中的每一层对应输入的 step,每个 step 根据当前时刻输入 :math:`x_{t}` 和上一时刻状态 :math:`h_{t-1}, c_{t-1}` 计算当前时刻输出 :math:`y_{t}` 并更新状态 :math:`h_{t}, c_{t}` 。
长短期记忆网络(LSTM),根据输入序列和给定的初始状态计算返回输出序列和最终状态。在该网络中的每一层对应输入的 step,每个 step 根据当前时刻输入 :math:`x_{t}` 和上一时刻状态 :math:`h_{t-1}, c_{t-1}` 计算当前时刻输出 :math:`y_{t}` 并更新状态 :math:`h_{t}, c_{t}` 。

状态更新公式如下:

Expand Down Expand Up @@ -41,7 +41,7 @@ LSTM
- **num_layers** (int,可选) - 循环网络的层数。例如,将层数设为 2,会将两层 GRU 网络堆叠在一起,第二层的输入来自第一层的输出。默认为 1。
- **direction** (str,可选) - 网络迭代方向,可设置为 forward 或 bidirect(或 bidirectional)。foward 指从序列开始到序列结束的单向 GRU 网络方向,bidirectional 指从序列开始到序列结束,又从序列结束到开始的双向 GRU 网络方向。默认为 forward。
- **time_major** (bool,可选) - 指定 input 的第一个维度是否是 time steps。如果 time_major 为 True,则 Tensor 的形状为[time_steps,batch_size,input_size],否则为[batch_size,time_steps,input_size]。`time_steps` 指输入序列的长度。默认为 False。
- **dropout** (float,可选) - dropout 概率,指的是出第一层外每层输入时的 dropout 概率。范围为[0, 1]。默认为 0。
- **dropout** (float,可选) - dropout 概率,指的是除第一层外每层输入时的 dropout 概率。范围为[0, 1]。默认为 0。
- **weight_ih_attr** (ParamAttr,可选) - weight_ih 的参数。默认为 None。
- **weight_hh_attr** (ParamAttr,可选) - weight_hh 的参数。默认为 None。
- **bias_ih_attr** (ParamAttr,可选) - bias_ih 的参数。默认为 None。
Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/nn/functional/grid_sample_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -35,7 +35,7 @@ step 2:
| | |
| d_s |
| | |
ws ------- y_s ------- wn
ws ------- y_s ------- es
x_w = floor(x) // west side x coord
x_e = x_w + 1 // east side x coord
Expand Down

0 comments on commit a9fde7a

Please sign in to comment.