@@ -23,7 +23,7 @@ namespace paddle::framework::ir {
2323
2424using string::PrettyLogDetail;
2525
26- void MatmulElementwiseAddMKLDNNFusePass ::ApplyImpl (Graph* graph) const {
26+ void MatmulElementwiseAddONEDNNFusePass ::ApplyImpl (Graph* graph) const {
2727 auto matmul_types = {" fused_matmul" , " matmul" , " matmul_v2" };
2828 auto matmul_as_x = {true , false };
2929
@@ -33,7 +33,7 @@ void MatmulElementwiseAddMKLDNNFusePass::ApplyImpl(Graph* graph) const {
3333 }
3434}
3535
36- void MatmulElementwiseAddMKLDNNFusePass ::FuseMatmulElementwiseAdd (
36+ void MatmulElementwiseAddONEDNNFusePass ::FuseMatmulElementwiseAdd (
3737 Graph* graph, const std::string& matmul_type, bool matmul_as_x) const {
3838 const std::string fusion_mode = matmul_as_x ? " x" : " y" ;
3939 const auto name_scope = matmul_type + " _elementwise_add_as_" + fusion_mode;
@@ -87,7 +87,7 @@ void MatmulElementwiseAddMKLDNNFusePass::FuseMatmulElementwiseAdd(
8787 }
8888}
8989
90- MatmulElementwiseAddMKLDNNFusePass::MatmulElementwiseAddMKLDNNFusePass () {
90+ MatmulElementwiseAddONEDNNFusePass::MatmulElementwiseAddONEDNNFusePass () {
9191 AddOpCompat (OpCompat (" matmul" ))
9292 .AddInput (" X" )
9393 .IsTensor ()
@@ -164,7 +164,7 @@ MatmulElementwiseAddMKLDNNFusePass::MatmulElementwiseAddMKLDNNFusePass() {
164164} // namespace paddle::framework::ir
165165
166166REGISTER_PASS (matmul_elementwise_add_onednn_fuse_pass,
167- paddle::framework::ir::MatmulElementwiseAddMKLDNNFusePass );
167+ paddle::framework::ir::MatmulElementwiseAddONEDNNFusePass );
168168REGISTER_PASS_CAPABILITY (matmul_elementwise_add_onednn_fuse_pass)
169169 .AddCombination(
170170 paddle::framework::compatible::OpVersionComparatorCombination ()
0 commit comments