diff --git a/docs/api/paddle/quantization/PTQ_cn.rst b/docs/api/paddle/quantization/PTQ_cn.rst new file mode 100644 index 00000000000..b7cb0a3524c --- /dev/null +++ b/docs/api/paddle/quantization/PTQ_cn.rst @@ -0,0 +1,45 @@ +.. _cn_api_paddle_quantization_PTQ: + +PTQ +------------------------------- +.. py:class:: paddle.quantization.PTQ(Quantization) +将训练后量化应用到模型上。 + +方法 +:::::::::::: +quantize(model: Layer, inplace=False) +''''''''' + +创建一个用于训练后量化的模型。 + +量化配置将在模型中传播。它将向模型中插入观察者以收集和计算量化参数。 + +**参数** + + - **model**(Layer) - 待量化的模型。 + - **inplace**(bool) - 是否对模型进行原地修改 +**返回** + +为训练后量化准备好的模型。 + +**代码示例** + +COPY-FROM: paddle.quantization.PTQ.quantize + +convert(self, model:layer, inplace=False, remain_weight=False): +''''''''' + +将量化模型转换为 ONNX 格式。转换后的模型可以通过调用 paddle.jit.save 保存为推理模型。 + +**参数** + + - **model**(Layer) - 待量化的模型。 + - **inplace**(bool, optional) - 是否要对模型进行就地修改,默认为 false。 + - **remain_weight**(bool, optional) - 是否宝石权重为 floats,默认为 false。 +**返回** + +转换后的模型 + +**代码示例** + +COPY-FROM: paddle.quantization.PTQ.convert diff --git a/docs/api/paddle/quantization/QAT_cn.rst b/docs/api/paddle/quantization/QAT_cn.rst new file mode 100644 index 00000000000..fb3a19b6b86 --- /dev/null +++ b/docs/api/paddle/quantization/QAT_cn.rst @@ -0,0 +1,54 @@ +.. _cn_api_paddle_quantization_QAT: + +QAT +------------------------------- + +.. py:class:: paddle.quantization.QAT(config: paddle.quantization.config.QuantConfig) +用于为量化感知训练准备模型的工具。 + +参数 +:::::::::::: + - **config** (QuantConfig) - 量化配置,通常指的是设置和调整模型量化过程中的参数和选项。 + +**代码示例** + +COPY-FROM: paddle.quantization.QAT.quantize + +方法 +:::::::::::: +quantize(model: Layer, inplace=False) +''''''''' +创建一个适用于量化感知训练的模型。 + +量化配置将在模型中传播。并且它将在模型中插入伪量化器以模拟量化过程。 + +**参数** + + - **model(Layer)** - 待量化的模型 + - **inplace(bool)** - 是否对模型进行原地修改 + +**返回** + +为量化感知训练准备好的模型。 + +**代码示例** + +COPY-FROM: paddle.quantization.QAT.quantize + +convert(self, model:layer, inplace=False, remain_weight=False): +''''''''' + +将量化模型转换为 ONNX 格式。转换后的模型可以通过调用 paddle.jit.save 保存为推理模型。 + +**参数** + + - **model**(Layer) - 待量化的模型。 + - **inplace**(bool, optional) - 是否要对模型进行就地修改,默认为 false。 + - **remain_weight**(bool, optional) - 是否保持权重为 floats,默认为 false。 +**返回** + +转换后的模型 + +**代码示例** + +COPY-FROM: paddle.quantization.QAT.convert