Skip to content

Commit 6541327

Browse files
authored
[Docathon][Add CN Doc No.28-29] (#6382)
* update compare docs (#6330) 中英文档修复 * Update fused_linear_activation_cn.rst * Update check_layer_numerics_cn.rst * Update fused_linear_activation_cn.rst * Update check_layer_numerics_cn.rst * Update check_layer_numerics_cn.rst * Update fused_linear_activation_cn.rst * Update fused_linear_activation_cn.rst * Update fused_linear_activation_cn.rst * Rename docs/api/paddle/incubate/nn/fused_linear_activation_cn.rst to docs/api/paddle/incubate/nn/functional/fused_linear_activation_cn.rst * 修正格式
1 parent ceeb02f commit 6541327

File tree

2 files changed

+53
-0
lines changed

2 files changed

+53
-0
lines changed
Lines changed: 23 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,23 @@
1+
.. _cn_api_paddle_amp_debugging_check_layer_numerics:
2+
3+
check_layer_numerics
4+
-------------------------------
5+
6+
.. py:function:: paddle.amp.debugging.check_layer_numerics(func)
7+
这个装饰器用于检查层的输入和输出数据的数值。
8+
9+
10+
参数
11+
:::::::::
12+
13+
- **func** (callable) – 将要被装饰的函数。
14+
15+
返回
16+
:::::::::
17+
一个被装饰后的函数(callable)。这个新的函数会在原来的函数基础上加上数值检查功能。
18+
19+
20+
代码示例
21+
::::::::::::
22+
23+
COPY-FROM: paddle.amp.debugging.check_layer_numerics
Lines changed: 30 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,30 @@
1+
.. _cn_api_paddle_incubate_nn_functional_fused_linear_activation:
2+
3+
fused_linear_activation
4+
-------------------------------
5+
6+
.. py:function:: paddle.incubate.nn.functional.fused_linear_activation(x, y, bias, trans_x=False, trans_y=False, activation=None)
7+
8+
全连接线性和激活变换操作符。该方法要求 CUDA 版本大于等于 11.6 。
9+
10+
11+
参数
12+
:::::::::
13+
14+
- **x** (Tensor) – 需要进行乘法运算的输入 Tensor 。
15+
- **y** (Tensor) – 需要进行乘法运算的权重 Tensor 。它的阶数必须为 2。
16+
- **bias** (Tensor) – 输入的偏置 Tensor,该偏置会加到矩阵乘法的结果上。
17+
- **trans_x** (bool, 可选) - 是否在乘法之前对 x 进行矩阵转置。
18+
- **trans_y** (bool, 可选) - 是否在乘法之前对 y 进行矩阵转置。
19+
- **activation** (str, 可选) - 目前,可用的激活函数仅限于“GELU”(高斯误差线性单元)和“ReLU”(修正线性单元)。这些激活函数应用于添加偏置之后的输出上。默认值:None。
20+
21+
返回
22+
:::::::::
23+
24+
**Tensor**,变换之后的 Tensor。
25+
26+
27+
代码示例
28+
::::::::::::
29+
30+
COPY-FROM: paddle.incubate.nn.functional.fused_linear_activation

0 commit comments

Comments
 (0)