【启航计划】PaddlePaddle API兼容性增强 (original) (raw)
1
torch.Tensor.addmm_
paddle.Tensor.addmm_
c++下沉或装饰器 {'mat1': 'x', 'mat2': 'y'};
2
torch.Tensor.baddbmm_
paddle.Tensor.baddbmm_
c++下沉或装饰器 {'batch1': 'x', 'batch2': 'y'};
3
torch.Tensor.bitwise_and_
paddle.Tensor.bitwise_and_
c++下沉或装饰器 {'other': 'y'};
4
torch.Tensor.bitwise_left_shift_
paddle.Tensor.bitwise_left_shift_
c++下沉或装饰器 {'other': 'y'};
5
torch.Tensor.bitwise_right_shift_
paddle.Tensor.bitwise_right_shift_
c++下沉或装饰器 {'other': 'y'};
6
torch.Tensor.bitwise_xor_
paddle.Tensor.bitwise_xor_
c++下沉或装饰器 {'other': 'y'};
7
torch.Tensor.cauchy_
paddle.Tensor.cauchy_
c++下沉或装饰器 {'median': 'loc', 'sigma': 'scale'};
8
torch.Tensor.copysign_
paddle.Tensor.copysign_
c++下沉或装饰器 {'other': 'y'};
9
torch.Tensor.cumsum_
paddle.Tensor.cumsum_
c++下沉或装饰器 {'dim': 'axis', 'dtype': 'dtype'};
10
torch.Tensor.floor_divide_
paddle.Tensor.floor_divide_
c++下沉或装饰器 {'other': 'y'};
11
torch.Tensor.gcd_
paddle.Tensor.gcd_
c++下沉或装饰器 {'other': 'y'};
12
torch.Tensor.geometric_
paddle.Tensor.geometric_
c++下沉或装饰器 {'p': 'probs'};
13
torch.Tensor.hypot_
paddle.Tensor.hypot_
c++下沉或装饰器 {'other': 'y'};
14
torch.Tensor.index_fill_
paddle.Tensor.index_fill_
c++下沉或装饰器 {'dim': 'axis'};
15
torch.Tensor.index_put_
paddle.Tensor.index_put_
c++下沉或装饰器 {'values': 'value'};
16
torch.Tensor.lcm_
paddle.Tensor.lcm_
c++下沉或装饰器 {'other': 'y'};
17
torch.Tensor.ldexp_
paddle.Tensor.ldexp_
c++下沉或装饰器 {'other': 'y'};
18
torch.Tensor.lerp_
paddle.Tensor.lerp_
c++下沉或装饰器 {'end': 'y'};
19
torch.Tensor.pow_
paddle.Tensor.pow_
c++下沉或装饰器 {'exponent': 'y'};
20
torch.Tensor.remainder_
paddle.Tensor.remainder_
c++下沉或装饰器 {'other': 'y'};
21
torch.Tensor.renorm_
paddle.Tensor.renorm_
c++下沉或装饰器 {'dim': 'axis', 'maxnorm': 'max_norm'};
22
torch.Tensor.squeeze_
paddle.Tensor.squeeze_
c++下沉或装饰器 {'dim': 'axis'};
23
torch.Tensor.unsqueeze_
paddle.Tensor.unsqueeze_
c++下沉或装饰器 {'dim': 'axis'};
24
torch.abs_
paddle.abs_
c++下沉或装饰器 {'input': 'x'};
25
torch.acos
paddle.acos
c++下沉或装饰器 {'input': 'x'}; 新增out;
26
torch.acosh
paddle.acosh
c++下沉或装饰器 {'input': 'x'}; 新增out;
27
torch.addmm
paddle.addmm
c++下沉或装饰器 {'mat1': 'x', 'mat2': 'y'}; 新增out;
28
torch.angle
paddle.angle
c++下沉或装饰器 {'input': 'x'}; 新增out;
29
torch.as_strided
paddle.as_strided
c++下沉或装饰器 {'input': 'x', 'size': 'shape', 'storage_offset': 'offset'};
30
torch.asin
paddle.asin
c++下沉或装饰器 {'input': 'x'}; 新增out;
31
torch.asinh
paddle.asinh
c++下沉或装饰器 {'input': 'x'}; 新增out;
32
torch.atan
paddle.atan
c++下沉或装饰器 {'input': 'x'}; 新增out;
33
torch.atan2
paddle.atan2
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
34
torch.atanh
paddle.atanh
c++下沉或装饰器 {'input': 'x'}; 新增out;
35
torch.baddbmm
paddle.baddbmm
c++下沉或装饰器 {'batch1': 'x', 'batch2': 'y'}; 新增out;
36
torch.bernoulli
paddle.bernoulli
c++下沉或装饰器 {'input': 'x'}; 新增out;
37
torch.bincount
paddle.bincount
c++下沉或装饰器 {'input': 'x'};
38
torch.bitwise_and
paddle.bitwise_and
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
39
torch.bitwise_left_shift
paddle.bitwise_left_shift
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
40
torch.bitwise_not
paddle.bitwise_not
c++下沉或装饰器 {'input': 'x'}; 新增out;
41
torch.bitwise_right_shift
paddle.bitwise_right_shift
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
42
torch.bitwise_xor
paddle.bitwise_xor
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
43
torch.block_diag
paddle.block_diag
c++下沉或装饰器 {'tensors': 'inputs'};
44
torch.broadcast_tensors
paddle.broadcast_tensors
c++下沉或装饰器 {'tensors': 'input'};
45
torch.cartesian_prod
paddle.cartesian_prod
c++下沉或装饰器 {'tensors': 'x'};
46
torch.cdist
paddle.cdist
c++下沉或装饰器 {'x1': 'x', 'x2': 'y'};
47
torch.clone
paddle.clone
c++下沉或装饰器 {'input': 'x'};
48
torch.column_stack
paddle.column_stack
c++下沉或装饰器 {'tensors': 'x'}; 新增out;
49
torch.combinations
paddle.combinations
c++下沉或装饰器 {'input': 'x'};
50
torch.conj
paddle.conj
c++下沉或装饰器 {'input': 'x'};
51
torch.copysign
paddle.copysign
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
52
torch.cosh
@algorithm1832 #76429 #7640 #766
paddle.cosh
c++下沉或装饰器 {'input': 'x'}; 新增out;
53
torch.count_nonzero
paddle.count_nonzero
c++下沉或装饰器 {'input': 'x', 'dim': 'axis'};
54
torch.cross
paddle.cross
c++下沉或装饰器 {'input': 'x', 'other': 'y', 'dim': 'axis'}; 新增out;
55
torch.cummax
paddle.cummax
c++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
56
torch.cummin
paddle.cummin
c++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
57
torch.cumulative_trapezoid
paddle.cumulative_trapezoid
c++下沉或装饰器 {'dim': 'axis'};
58
torch.diag
paddle.diag
c++下沉或装饰器 {'input': 'x', 'diagonal': 'offset'}; 新增out;
59
torch.diagflat
paddle.diagflat
c++下沉或装饰器 {'input': 'x'};
60
torch.diagonal_scatter
paddle.diagonal_scatter
c++下沉或装饰器 {'input': 'x', 'src': 'y', 'dim1': 'axis1', 'dim2': 'axis2'};
61
torch.dist
paddle.dist
c++下沉或装饰器 {'input': 'x', 'other': 'y'};
62
torch.dsplit
paddle.dsplit
c++下沉或装饰器 {'input': 'x', 'indices': 'num_or_indices', 'sections': 'num_or_indices'};
63
torch.dstack
paddle.dstack
c++下沉或装饰器 {'tensors': 'x'}; 新增out;
64
torch.flip
paddle.flip
c++下沉或装饰器 {'input': 'x', 'dims': 'axis'};
65
torch.fmax
paddle.fmax
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
66
torch.fmin
paddle.fmin
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
67
torch.frac
@algorithm1832 #76671 #7662 #784
paddle.frac
c++下沉或装饰器 {'input': 'x'}; 新增out;
68
torch.frexp
paddle.frexp
c++下沉或装饰器 {'input': 'x'}; 新增out;
69
torch.gcd
paddle.gcd
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
70
torch.heaviside
paddle.heaviside
c++下沉或装饰器 {'input': 'x', 'values': 'y'}; 新增out;
71
torch.histogram
paddle.histogram
c++下沉或装饰器 {'range': ['min', 'max']}; 新增out;
72
torch.histogramdd
paddle.histogramdd
c++下沉或装饰器 {'input': 'x', 'range': 'ranges', 'weight': 'weights'};
73
torch.hsplit
paddle.hsplit
c++下沉或装饰器 {'input': 'x', 'indices': 'num_or_indices', 'sections': 'num_or_indices'};
74
torch.hstack
paddle.hstack
c++下沉或装饰器 {'tensors': 'x'}; 新增out;
75
torch.hypot
paddle.hypot
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
76
torch.iinfo
paddle.iinfo
c++下沉或装饰器 {'type': 'dtype'};
77
torch.imag
paddle.imag
c++下沉或装饰器 {'input': 'x'};
78
torch.index_add
paddle.index_add
c++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
79
torch.index_fill
paddle.index_fill
c++下沉或装饰器 {'input': 'x', 'dim': 'axis'};
80
torch.inner
paddle.inner
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
81
torch.isneginf
paddle.isneginf
c++下沉或装饰器 {'input': 'x'}; 新增out;
82
torch.isposinf
paddle.isposinf
c++下沉或装饰器 {'input': 'x'}; 新增out;
83
torch.isreal
paddle.isreal
c++下沉或装饰器 {'input': 'x'};
84
torch.kron
paddle.kron
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
85
torch.kthvalue
paddle.kthvalue
c++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
86
torch.lcm
paddle.lcm
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
87
torch.ldexp
paddle.ldexp
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
88
torch.lgamma
paddle.lgamma
c++下沉或装饰器 {'input': 'x'}; 新增out;
89
torch.linalg.cholesky
paddle.linalg.cholesky
c++下沉或装饰器 {'input': 'x'}; 新增out;
90
torch.linalg.cond
paddle.linalg.cond
c++下沉或装饰器 {'input': 'x'}; 新增out;
91
torch.linalg.det
paddle.linalg.det
c++下沉或装饰器 {'A': 'x'}; 新增out;
92
torch.linalg.eig
paddle.linalg.eig
c++下沉或装饰器 {'input': 'x'}; 新增out;
93
torch.linalg.eigh
paddle.linalg.eigh
c++下沉或装饰器 {'input': 'x'}; 新增out;
94
torch.linalg.eigvals
paddle.linalg.eigvals
c++下沉或装饰器 {'input': 'x'}; 新增out;
95
torch.linalg.eigvalsh
paddle.linalg.eigvalsh
c++下沉或装饰器 {'input': 'x'}; 新增out;
96
torch.linalg.householder_product
paddle.linalg.householder_product
c++下沉或装饰器 {'input': 'x'}; 新增out;
97
torch.linalg.inv
paddle.linalg.inv
c++下沉或装饰器 {'A': 'x'}; 新增out;
98
torch.linalg.lstsq
paddle.linalg.lstsq
c++下沉或装饰器 {'input': 'x', 'b': 'y'};
99
torch.linalg.lu
paddle.linalg.lu
c++下沉或装饰器 {'A': 'x'}; 新增out;
100
torch.linalg.lu_solve
paddle.linalg.lu_solve
c++下沉或装饰器 {'LU': 'lu', 'B': 'b'}; 新增out;
101
torch.linalg.matrix_norm
paddle.linalg.matrix_norm
c++下沉或装饰器 {'input': 'x', 'ord': 'p', 'dim': 'axis'}; 新增out;
102
torch.linalg.matrix_power
paddle.linalg.matrix_power
c++下沉或装饰器 {'input': 'x'}; 新增out;
103
torch.linalg.matrix_rank
paddle.linalg.matrix_rank
c++下沉或装饰器 {'input': 'x'}; 新增out;
104
torch.linalg.multi_dot
paddle.linalg.multi_dot
c++下沉或装饰器 {'tensors': 'x'}; 新增out;
105
torch.linalg.pinv
paddle.linalg.pinv
c++下沉或装饰器 {'input': 'x', 'atol': '', 'rtol': 'rcond'}; 新增out;
106
torch.linalg.qr
paddle.linalg.qr
c++下沉或装饰器 {'A': 'x'}; 新增out;
107
torch.linalg.svdvals
paddle.linalg.svdvals
c++下沉或装饰器 {'A': 'x', 'driver': ''}; 新增out;
108
torch.linalg.vecdot
paddle.linalg.vecdot
c++下沉或装饰器 {'dim': 'axis'}; 新增out;
109
torch.log10
paddle.log10
c++下沉或装饰器 {'input': 'x'}; 新增out;
110
torch.log1p
paddle.log1p
c++下沉或装饰器 {'input': 'x'}; 新增out;
111
torch.logaddexp
paddle.logaddexp
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
112
torch.logcumsumexp
paddle.logcumsumexp
c++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
113
torch.logspace
paddle.logspace
c++下沉或装饰器 {'end': 'stop', 'steps': 'num', 'dtype': 'dtype'}; 新增out;
114
torch.masked_fill
paddle.masked_fill
c++下沉或装饰器 {'input': 'x'};
115
torch.mode
paddle.mode
c++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
116
torch.moveaxis
paddle.moveaxis
c++下沉或装饰器 {'input': 'x'};
117
torch.mv
paddle.mv
c++下沉或装饰器 {'input': 'x'}; 新增out;
118
torch.nan_to_num
paddle.nan_to_num
c++下沉或装饰器 {'input': 'x'}; 新增out;
119
torch.nanmean
paddle.nanmean
c++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
120
torch.nanquantile
paddle.nanquantile
c++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增out;
121
torch.nansum
paddle.nansum
c++下沉或装饰器 {'input': 'x', 'dim': 'axis', 'dtype': 'dtype'}; 新增out;
122
torch.neg
paddle.neg
c++下沉或装饰器 {'input': 'x'}; 新增out;
123
torch.nextafter
paddle.nextafter
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out;
124
torch.nn.Bilinear
paddle.nn.Bilinear
c++下沉或装饰器 {'bias': 'bias_attr', 'device': '', 'dtype': ''};
125
torch.nn.CosineSimilarity
paddle.nn.CosineSimilarity
c++下沉或装饰器 {'dim': 'axis'};
126
torch.nn.Flatten
paddle.nn.Flatten
c++下沉或装饰器 {'start_dim': 'start_axis', 'end_dim':
127
torch.nn.Fold
paddle.nn.Fold
c++下沉或装饰器 {'output_size': 'output_sizes', 'kernel_size': 'kernel_sizes', 'stride': 'strides', 'padding': 'paddings', 'dilation': 'dilations'};
128
torch.nn.GLU
paddle.nn.GLU
c++下沉或装饰器 {'dim': 'axis'};
129
torch.nn.GRU
paddle.nn.GRU
c++下沉或装饰器 {'bias': ['bias_ih_attr', 'bias_hh_attr'], 'device': '', 'dtype': ''};
130
torch.nn.GRUCell
paddle.nn.GRUCell
c++下沉或装饰器 {'bias': ['bias_ih_attr', 'bias_hh_attr'], 'device': '', 'dtype': ''};
131
torch.nn.GaussianNLLLoss
paddle.nn.GaussianNLLLoss
c++下沉或装饰器 {'eps': 'epsilon'};
132
torch.nn.Hardshrink
paddle.nn.Hardshrink
c++下沉或装饰器 {'lambd': 'threshold'};
133
torch.nn.Hardtanh
paddle.nn.Hardtanh
c++下沉或装饰器 {'min_val': 'min', 'max_val': 'max'};
134
torch.nn.LSTM
paddle.nn.LSTM
c++下沉或装饰器 {'bias': ['bias_ih_attr', 'bias_hh_attr'], 'device': '', 'dtype': ''};
135
torch.nn.LSTMCell
paddle.nn.LSTMCell
c++下沉或装饰器 {'bias': ['bias_ih_attr', 'bias_hh_attr'], 'device': '', 'dtype': ''};
136
torch.nn.PReLU
paddle.nn.PReLU
c++下沉或装饰器 {'device': '', 'dtype': ''};
137
torch.nn.PairwiseDistance
paddle.nn.PairwiseDistance
c++下沉或装饰器 {'eps': 'epsilon'};
138
torch.nn.ParameterList
paddle.nn.ParameterList
c++下沉或装饰器 {'values': 'parameters'};
139
torch.nn.PoissonNLLLoss
paddle.nn.PoissonNLLLoss
c++下沉或装饰器 {'eps': 'epsilon'};
140
torch.nn.Softshrink
paddle.nn.Softshrink
c++下沉或装饰器 {'lambd': 'threshold'};
141
torch.nn.SyncBatchNorm
paddle.nn.SyncBatchNorm
c++下沉或装饰器 {'eps': 'epsilon', 'affine': ['weight_attr', 'bias_attr'], 'track_running_stats': '', 'process_group': '', 'device': '', 'dtype': ''};
142
torch.nn.TransformerEncoder
paddle.nn.TransformerEncoder
c++下沉或装饰器 {'enable_nested_tensor': '', 'mask_check': ''};
143
torch.nn.TripletMarginLoss
paddle.nn.TripletMarginLoss
c++下沉或装饰器 {'eps': 'epsilon'};
144
torch.nn.Unflatten
paddle.nn.Unflatten
c++下沉或装饰器 {'dim': 'axis', 'unflattened_size': 'shape'};
145
torch.nn.functional.adaptive_avg_pool2d
paddle.nn.functional.adaptive_avg_pool2d
c++下沉或装饰器 {'input': 'x'};
146
torch.nn.functional.adaptive_avg_pool3d
paddle.nn.functional.adaptive_avg_pool3d
c++下沉或装饰器 {'input': 'x'};
147
torch.nn.functional.adaptive_max_pool1d
paddle.nn.functional.adaptive_max_pool1d
c++下沉或装饰器 {'input': 'x', 'return_indices': 'return_mask'};
148
torch.nn.functional.adaptive_max_pool2d
paddle.nn.functional.adaptive_max_pool2d
c++下沉或装饰器 {'input': 'x', 'return_indices': 'return_mask'};
149
torch.nn.functional.adaptive_max_pool3d
paddle.nn.functional.adaptive_max_pool3d
c++下沉或装饰器 {'input': 'x', 'return_indices': 'return_mask'};
150
torch.nn.functional.affine_grid
paddle.nn.functional.affine_grid
c++下沉或装饰器 {'size': 'out_shape'};
151
torch.nn.functional.alpha_dropout
paddle.nn.functional.alpha_dropout
c++下沉或装饰器 {'input': 'x'};
152
torch.nn.functional.batch_norm
paddle.nn.functional.batch_norm
c++下沉或装饰器 {'input': 'x', 'eps': 'epsilon'};
153
torch.nn.functional.bilinear
paddle.nn.functional.bilinear
c++下沉或装饰器 {'input1': 'x1', 'input2': 'x2'};
154
torch.nn.functional.binary_cross_entropy
paddle.nn.functional.binary_cross_entropy
c++下沉或装饰器 {'target': 'label'};
155
torch.nn.functional.binary_cross_entropy_with_logits
paddle.nn.functional.binary_cross_entropy_with_logits
c++下沉或装饰器 {'input': 'logit', 'target': 'label'};
156
torch.nn.functional.celu
paddle.nn.functional.celu
c++下沉或装饰器 {'input': 'x'};
157
torch.nn.functional.channel_shuffle
paddle.nn.functional.channel_shuffle
c++下沉或装饰器 {'input': 'x'};
158
torch.nn.functional.cosine_embedding_loss
paddle.nn.functional.cosine_embedding_loss
c++下沉或装饰器 {'target': 'label'};
159
torch.nn.functional.cosine_similarity
paddle.nn.functional.cosine_similarity
c++下沉或装饰器 {'dim': 'axis'};
160
torch.nn.functional.dropout2d
paddle.nn.functional.dropout2d
c++下沉或装饰器 {'input': 'x'};
161
torch.nn.functional.dropout3d
paddle.nn.functional.dropout3d
c++下沉或装饰器 {'input': 'x'};
162
torch.nn.functional.elu
paddle.nn.functional.elu
c++下沉或装饰器 {'input': 'x'};
163
torch.nn.functional.elu_
paddle.nn.functional.elu_
c++下沉或装饰器 {'input': 'x'};
164
torch.nn.functional.fold
paddle.nn.functional.fold
c++下沉或装饰器 {'input': 'x', 'output_size': 'output_sizes', 'kernel_size': 'kernel_sizes', 'stride': 'strides', 'padding': 'paddings', 'dilation': 'dilations'};
165
torch.nn.functional.gaussian_nll_loss
paddle.nn.functional.gaussian_nll_loss
c++下沉或装饰器 {'target': 'label', 'var': 'variance', 'eps': 'epsilon'};
166
torch.nn.functional.glu
paddle.nn.functional.glu
c++下沉或装饰器 {'input': 'x', 'dim': 'axis'};
167
torch.nn.functional.gumbel_softmax
paddle.nn.functional.gumbel_softmax
c++下沉或装饰器 {'logits': 'x', 'tau': 'temperature', 'eps': '', 'dim': 'axis'};
168
torch.nn.functional.hardshrink
paddle.nn.functional.hardshrink
c++下沉或装饰器 {'input': 'x', 'lambd': 'threshold'};
169
torch.nn.functional.hardsigmoid
paddle.nn.functional.hardsigmoid
c++下沉或装饰器 {'input': 'x'};
170
torch.nn.functional.hardswish
paddle.nn.functional.hardswish
c++下沉或装饰器 {'input': 'x'};
171
torch.nn.functional.hardtanh
paddle.nn.functional.hardtanh
c++下沉或装饰器 {'input': 'x', 'min_val': 'min', 'max_val': 'max'};
172
torch.nn.functional.hardtanh_
paddle.nn.functional.hardtanh_
c++下沉或装饰器 {'input': 'x', 'min_val': 'min', 'max_val': 'max'};
173
torch.nn.functional.hinge_embedding_loss
paddle.nn.functional.hinge_embedding_loss
c++下沉或装饰器 {'target': 'label'};
174
torch.nn.functional.instance_norm
paddle.nn.functional.instance_norm
c++下沉或装饰器 {'input': 'x'};
175
torch.nn.functional.kl_div
paddle.nn.functional.kl_div
c++下沉或装饰器 {'target': 'label'};
176
torch.nn.functional.l1_loss
paddle.nn.functional.l1_loss
c++下沉或装饰器 {'target': 'label'};
177
torch.nn.functional.leaky_relu_
paddle.nn.functional.leaky_relu_
c++下沉或装饰器 {'input': 'x'};
178
torch.nn.functional.local_response_norm
paddle.nn.functional.local_response_norm
c++下沉或装饰器 {'input': 'x'};
179
torch.nn.functional.lp_pool1d
paddle.nn.functional.lp_pool1d
c++下沉或装饰器 {'input': 'x'};
180
torch.nn.functional.lp_pool2d
paddle.nn.functional.lp_pool2d
c++下沉或装饰器 {'input': 'x'};
181
torch.nn.functional.margin_ranking_loss
paddle.nn.functional.margin_ranking_loss
c++下沉或装饰器 {'input1': 'input', 'input2': 'other', 'target': 'label'};
182
torch.nn.functional.max_unpool1d
paddle.nn.functional.max_unpool1d
c++下沉或装饰器 {'input': 'x'};
183
torch.nn.functional.max_unpool2d
paddle.nn.functional.max_unpool2d
c++下沉或装饰器 {'input': 'x'};
184
torch.nn.functional.max_unpool3d
paddle.nn.functional.max_unpool3d
c++下沉或装饰器 {'input': 'x'};
185
torch.nn.functional.mish
paddle.nn.functional.mish
c++下沉或装饰器 {'input': 'x'};
186
torch.nn.functional.mse_loss
paddle.nn.functional.mse_loss
c++下沉或装饰器 {'target': 'label'};
187
torch.nn.functional.multi_margin_loss
paddle.nn.functional.multi_margin_loss
c++下沉或装饰器 {'target': 'label'};
188
torch.nn.functional.nll_loss
paddle.nn.functional.nll_loss
c++下沉或装饰器 {'target': 'label'};
189
torch.nn.functional.pairwise_distance
paddle.nn.functional.pairwise_distance
c++下沉或装饰器 {'x1': 'x', 'x2': 'y', 'eps': 'epsilon'};
190
torch.nn.functional.pixel_unshuffle
paddle.nn.functional.pixel_unshuffle
c++下沉或装饰器 {'input': 'x'};
191
torch.nn.functional.poisson_nll_loss
paddle.nn.functional.poisson_nll_loss
c++下沉或装饰器 {'target': 'label', 'eps': 'epsilon'};
192
torch.nn.functional.prelu
paddle.nn.functional.prelu
c++下沉或装饰器 {'input': 'x'};
193
torch.nn.functional.relu6
paddle.nn.functional.relu6
c++下沉或装饰器 {'input': 'x'};
194
torch.nn.functional.relu_
paddle.nn.functional.relu_
c++下沉或装饰器 {'input': 'x'};
195
torch.nn.functional.rrelu
paddle.nn.functional.rrelu
c++下沉或装饰器 {'input': 'x'};
196
torch.nn.functional.selu
paddle.nn.functional.selu
c++下沉或装饰器 {'input': 'x'};
197
torch.nn.functional.soft_margin_loss
paddle.nn.functional.soft_margin_loss
c++下沉或装饰器 {'target': 'label'};
198
torch.nn.functional.softshrink
paddle.nn.functional.softshrink
c++下沉或装饰器 {'input': 'x', 'lambd': 'threshold'};
199
torch.nn.functional.softsign
paddle.nn.functional.softsign
c++下沉或装饰器 {'input': 'x'};
200
torch.nn.functional.tanhshrink
paddle.nn.functional.tanhshrink
c++下沉或装饰器 {'input': 'x'};
201
torch.nn.functional.triplet_margin_loss
paddle.nn.functional.triplet_margin_loss
c++下沉或装饰器 {'anchor': 'input', 'eps': 'epsilon'};
202
torch.nn.functional.triplet_margin_with_distance_loss
paddle.nn.functional.triplet_margin_with_distance_loss
c++下沉或装饰器 {'anchor': 'input'};
203
torch.nn.utils.clip_grad_value_
paddle.nn.utils.clip_grad_value_
c++下沉或装饰器 {'foreach': ''};
204
torch.nn.utils.remove_weight_norm
paddle.nn.utils.remove_weight_norm
c++下沉或装饰器 {'module': 'layer'};
205
torch.nn.utils.spectral_norm
paddle.nn.utils.spectral_norm
c++下沉或装饰器 {'module': 'layer'};
206
torch.nn.utils.weight_norm
paddle.nn.utils.weight_norm
c++下沉或装饰器 {'module': 'layer'};
207
torch.poisson
paddle.poisson
c++下沉或装饰器 {'input': 'x'};
208
torch.positive
paddle.positive
c++下沉或装饰器 {'input': 'x'};
209
torch.rad2deg
paddle.rad2deg
c++下沉或装饰器 {'input': 'x'}; 新增out;
210
torch.randint_like
paddle.randint_like
c++下沉或装饰器 {'input': 'x', 'dtype': 'dtype'};
211
torch.real
paddle.real
c++下沉或装饰器 {'input': 'x'};
212
torch.reciprocal
paddle.reciprocal
c++下沉或装饰器 {'input': 'x'}; 新增out;
213
torch.renorm
paddle.renorm
c++下沉或装饰器 {'input': 'x', 'dim': 'axis', 'maxnorm': 'max_norm'}; 新增out;
214
torch.rot90
paddle.rot90
c++下沉或装饰器 {'input': 'x', 'dims': 'axes'};
215
torch.row_stack
paddle.row_stack
c++下沉或装饰器 {'tensors': 'x'}; 新增out;
216
torch.save
paddle.save
c++下沉或装饰器 {'f': 'path', 'pickle_module': '', 'pickle_protocol': 'protocol', '_use_new_zipfile_serialization': ''};
217
torch.searchsorted
paddle.searchsorted
c++下沉或装饰器 {'input': 'values'}; 新增out;
218
torch.select_scatter
paddle.select_scatter
c++下沉或装饰器 {'input': 'x', 'src': 'values', 'dim': 'axis'};
219
torch.set_rng_state
paddle.set_rng_state
c++下沉或装饰器 {'new_state': 'state_list'};
220
torch.sgn
paddle.sgn
c++下沉或装饰器 {'input': 'x'}; 新增out;
221
torch.signbit
paddle.signbit
c++下沉或装饰器 {'input': 'x'}; 新增out;
222
torch.sinh
paddle.sinh
c++下沉或装饰器 {'input': 'x'}; 新增out;
223
torch.slice_scatter
paddle.slice_scatter
c++下沉或装饰器 {'input': 'x', 'src': 'value', 'dim': 'axes', 'start': 'starts', 'end': 'ends', 'step': 'strides'};
224
torch.sparse.addmm
paddle.sparse.addmm
c++下沉或装饰器 {'mat1': 'x', 'mat2': 'y'};
225
torch.take
paddle.take
c++下沉或装饰器 {'input': 'x'};
226
torch.tensordot
paddle.tensordot
c++下沉或装饰器 {'a': 'x', 'b': 'y', 'dims': 'axes'}; 新增out;
227
torch.tile
paddle.tile
c++下沉或装饰器 {'input': 'x', 'dims': 'repeat_times'};
228
torch.trace
paddle.trace
c++下沉或装饰器 {'input': 'x'};
229
torch.trapezoid
paddle.trapezoid
c++下沉或装饰器 {'dim': 'axis'};
230
torch.tril_indices
paddle.tril_indices
c++下沉或装饰器 {'dtype': 'dtype'};
231
torch.triu_indices
paddle.triu_indices
c++下沉或装饰器 {'dtype': 'dtype'};
232
torch.unflatten
paddle.unflatten
c++下沉或装饰器 {'input': 'x', 'dim': 'axis', 'sizes': 'shape'};
233
torch.vander
paddle.vander
c++下沉或装饰器 {'N': 'n'};
234
torch.vsplit
paddle.vsplit
c++下沉或装饰器 {'input': 'x', 'indices': 'num_or_indices', 'sections': 'num_or_indices'};
235
torch.vstack
paddle.vstack
c++下沉或装饰器 {'tensors': 'x'}; 新增out;
236
torch.Tensor.addmv_
paddle.mm
新增API paddle.Tensor.addmv_;
237
torch.Tensor.addr_
paddle.outer
新增API paddle.Tensor.addr_;
238
torch.Tensor.col_indices
paddle.Tensor.cols
仅调用方式不一致; 新增API paddle.Tensor.col_indices;
239
torch.Tensor.crow_indices
paddle.Tensor.crows
仅调用方式不一致; 新增API paddle.Tensor.crow_indices;
240
torch.Tensor.erf_
paddle.erf_
仅调用方式不一致; 新增API paddle.Tensor.erf_;
241
torch.Tensor.expm1_
paddle.expm1_
仅调用方式不一致; 新增API paddle.Tensor.expm1_;
242
torch.Tensor.fix_
paddle.Tensor.trunc_
仅调用方式不一致; 新增API paddle.Tensor.fix_;
243
torch.Tensor.matrix_exp
paddle.linalg.matrix_exp
仅调用方式不一致; 新增API paddle.Tensor.matrix_exp;
244
torch.Tensor.mvlgamma_
paddle.Tensor.multigammaln_
仅调用方式不一致; 新增API paddle.Tensor.mvlgamma_;
245
torch.Tensor.negative_
paddle.Tensor.neg_
仅调用方式不一致; 新增API paddle.Tensor.negative_;
246
torch.Tensor.retain_grad
paddle.Tensor.retain_grads
仅调用方式不一致; 新增API paddle.Tensor.retain_grad;
247
torch.Tensor.sparse_mask
paddle.sparse.mask_as
仅调用方式不一致; 新增API paddle.Tensor.sparse_mask;
248
torch.Tensor.square_
paddle.square_
仅调用方式不一致; 新增API paddle.Tensor.square_;
249
torch.Tensor.to_sparse
paddle.Tensor.to_sparse_coo
仅调用方式不一致; 新增API paddle.Tensor.to_sparse;
250
torch.addmv
paddle.mm
新增out; 新增API paddle.addmv;
251
torch.addr
paddle.outer
新增out; 新增API paddle.addr;
252
torch.autograd.enable_grad
paddle.enable_grad
仅调用方式不一致; 新增API paddle.autograd.enable_grad;
253
torch.autograd.grad_mode.set_grad_enabled
paddle.set_grad_enabled
仅调用方式不一致; 新增API paddle.autograd.grad_mode.set_grad_enabled;
254
torch.backends.cuda.is_built
paddle.device.is_compiled_with_cuda
仅调用方式不一致; 新增API paddle.backends.cuda.is_built;
255
torch.backends.cudnn.version
paddle.device.get_cudnn_version
仅调用方式不一致; 新增API paddle.backends.cudnn.version;
256
torch.distributions.constraints.Constraint
paddle.distribution.constraint.Constraint
仅调用方式不一致; 新增API paddle.distributions.constraints.Constraint;
257
torch.distributions.distribution.Distribution.log_prob
paddle.distribution.Distribution.log_prob
仅调用方式不一致; 新增API paddle.distributions.distribution.Distribution.log_prob;
258
torch.distributions.kl.kl_divergence
paddle.distribution.kl_divergence
仅调用方式不一致; 新增API paddle.distributions.kl.kl_divergence;
259
torch.fix
paddle.trunc
新增out; 新增API paddle.fix;
260
torch.histc
paddle.histogram
新增out; 新增API paddle.histc;
261
torch.special.round
paddle.round
新增out; 新增API paddle.special.round;
262
torch.trunc
paddle.trunc
新增out;
263
torch.Tensor.fmod_
paddle.Tensor.mod_
c++下沉或装饰器 {'other': 'y'}; 新增API paddle.Tensor.fmod_;
264
torch.Tensor.hardshrink
paddle.nn.functional.hardshrink
c++下沉或装饰器 {'lambd': 'threshold'}; 仅调用方式不一致; 新增API paddle.Tensor.hardshrink;
265
torch.Tensor.igamma
paddle.Tensor.gammainc
c++下沉或装饰器 {'other': 'y'}; 新增API paddle.Tensor.igamma;
266
torch.Tensor.igamma_
paddle.Tensor.gammainc_
c++下沉或装饰器 {'other': 'y'}; 新增API paddle.Tensor.igamma_;
267
torch.Tensor.igammac
paddle.Tensor.gammaincc
c++下沉或装饰器 {'other': 'y'}; 新增API paddle.Tensor.igammac;
268
torch.Tensor.igammac_
paddle.Tensor.gammaincc_
c++下沉或装饰器 {'other': 'y'}; 新增API paddle.Tensor.igammac_;
269
torch.Tensor.new_tensor
paddle.to_tensor
c++下沉或装饰器 {'device': 'place'}; 新增API paddle.Tensor.new_tensor;
270
torch.Tensor.orgqr
paddle.Tensor.householder_product
c++下沉或装饰器 {'input2': 'tau'}; 新增API paddle.Tensor.orgqr;
271
torch.Tensor.true_divide_
paddle.Tensor.divide_
c++下沉或装饰器 {'other': 'y'}; 新增API paddle.Tensor.true_divide_;
272
torch.alpha_dropout
paddle.nn.functional.alpha_dropout
c++下沉或装饰器 {'input': 'x', 'train': 'training'}; 新增API paddle.alpha_dropout;
273
torch.celu
paddle.nn.functional.celu
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.celu;
274
torch.cholesky
paddle.linalg.cholesky
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.cholesky;
275
torch.cholesky_inverse
paddle.linalg.cholesky_inverse
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.cholesky_inverse;
276
torch.cholesky_solve
paddle.linalg.cholesky_solve
c++下沉或装饰器 {'input': 'x', 'input2': 'y'}; 新增out; 新增API paddle.cholesky_solve;
277
torch.clamp_max
paddle.clip
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.clamp_max;
278
torch.clamp_min
paddle.clip
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.clamp_min;
279
torch.conj_physical
paddle.conj
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.conj_physical;
280
torch.cov
paddle.linalg.cov
c++下沉或装饰器 {'input': 'x', 'correction': 'ddof'}; 新增API paddle.cov;
281
torch.det
paddle.linalg.det
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.det;
282
torch.dropout
paddle.nn.functional.dropout
c++下沉或装饰器 {'input': 'x', 'train': 'training'}; 新增API paddle.dropout;
283
torch.fmod
paddle.mod
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out; 新增API paddle.fmod;
284
torch.istft
paddle.signal.istft
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.istft;
285
torch.linalg.cholesky_ex
paddle.linalg.cholesky
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.linalg.cholesky_ex;
286
torch.linalg.inv_ex
paddle.linalg.inv
c++下沉或装饰器 {'A': 'x'}; 新增out; 新增API paddle.linalg.inv_ex;
287
torch.linalg.lu_factor
paddle.linalg.lu
c++下沉或装饰器 {'A': 'x'}; 新增out; 新增API paddle.linalg.lu_factor;
288
torch.linalg.solve_triangular
paddle.linalg.triangular_solve
c++下沉或装饰器 {'input': 'x', 'B': 'y', 'left': 'transpose'}; 新增out; 新增API paddle.linalg.solve_triangular;
289
torch.lu
paddle.linalg.lu
c++下沉或装饰器 {'A': 'x'}; 新增out; 新增API paddle.lu;
290
torch.lu_unpack
paddle.linalg.lu_unpack
c++下沉或装饰器 {'LU_data': 'x', 'LU_pivots': 'y', 'unpack_data': 'unpack_ludata'}; 新增out; 新增API paddle.lu_unpack;
291
torch.movedim
paddle.moveaxis
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.movedim;
292
torch.mvlgamma
paddle.multigammaln
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.mvlgamma;
293
torch.negative
paddle.neg
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.negative;
294
torch.nn.BatchNorm1d
paddle.nn.BatchNorm1D
c++下沉或装饰器 {'eps': 'epsilon', 'affine':['weight_attr', 'bias_attr'], 'track_running_stats': '', 'device': '', 'dtype': ''}; 新增API paddle.nn.BatchNorm1d;
295
torch.nn.BatchNorm2d
paddle.nn.BatchNorm2D
c++下沉或装饰器 {'eps': 'epsilon', 'affine': ['weight_attr', 'bias_attr'], 'track_running_stats': '', 'device': '', 'dtype': ''}; 新增API paddle.nn.BatchNorm2d;
296
torch.nn.BatchNorm3d
paddle.nn.BatchNorm3D
c++下沉或装饰器 {'eps': 'epsilon', 'affine': ['weight_attr', 'bias_attr'], 'track_running_stats': '', 'device': '', 'dtype': ''}; 新增API paddle.nn.BatchNorm3d;
297
torch.nn.InstanceNorm1d
paddle.nn.InstanceNorm1D
c++下沉或装饰器 {'eps': 'epsilon', 'affine': ['weight_attr', 'bias_attr'], 'track_running_stats': '', 'device': '', 'dtype': ''}; 新增API paddle.nn.InstanceNorm1d;
298
torch.nn.InstanceNorm2d
paddle.nn.InstanceNorm2D
c++下沉或装饰器 {'eps': 'epsilon', 'affine': ['weight_attr', 'bias_attr'], 'track_running_stats': '', 'device': '', 'dtype': ''}; 新增API paddle.nn.InstanceNorm2d;
299
torch.nn.InstanceNorm3d
paddle.nn.InstanceNorm3D
c++下沉或装饰器 {'eps': 'epsilon', 'affine': ['weight_attr', 'bias_attr'], 'track_running_stats': '', 'device': '', 'dtype': ''}; 新增API paddle.nn.InstanceNorm3d;
300
torch.nn.RNN
paddle.nn.SimpleRNN
c++下沉或装饰器 {'nonlinearity': 'activation', 'bias': ['bias_ih_attr', 'bias_hh_attr'], 'device': '', 'dtype': ''}; 新增API paddle.nn.RNN;
301
torch.nn.functional.conv_transpose1d
paddle.nn.functional.conv1d_transpose
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.nn.functional.conv_transpose1d;
302
torch.nn.functional.conv_transpose3d
paddle.nn.functional.conv3d_transpose
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.nn.functional.conv_transpose3d;
303
torch.nn.functional.huber_loss
paddle.nn.functional.smooth_l1_loss
c++下沉或装饰器 {'target': 'label'}; 新增API paddle.nn.functional.huber_loss;
304
torch.nn.functional.multilabel_margin_loss
paddle.nn.functional.multi_label_margin_loss
c++下沉或装饰器 {'target': 'label'}; 新增API paddle.nn.functional.multilabel_margin_loss;
305
torch.nn.functional.multilabel_soft_margin_loss
paddle.nn.functional.multi_label_soft_margin_loss
c++下沉或装饰器 {'target': 'label'}; 新增API paddle.nn.functional.multilabel_soft_margin_loss;
306
torch.nn.functional.pdist
paddle.pdist
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.nn.functional.pdist;
307
torch.nn.functional.rrelu_
paddle.nn.functional.rrelu
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.nn.functional.rrelu_;
308
torch.nn.functional.softmin
paddle.nn.functional.softmax
c++下沉或装饰器 {'input': 'x', 'dim': 'axis', '_stacklevel': '', 'dtype': 'dtype'}; 新增API paddle.nn.functional.softmin;
309
torch.nn.functional.threshold
paddle.nn.functional.thresholded_relu
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.nn.functional.threshold;
310
torch.nn.functional.threshold_
paddle.nn.functional.thresholded_relu_
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.nn.functional.threshold_;
311
torch.nn.functional.upsample_nearest
paddle.nn.functional.upsample
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.nn.functional.upsample_nearest;
312
torch.nn.utils.parametrizations.spectral_norm
paddle.nn.utils.spectral_norm
c++下沉或装饰器 {'module': 'layer'}; 新增API paddle.nn.utils.parametrizations.spectral_norm;
313
torch.nn.utils.parametrizations.weight_norm
paddle.nn.utils.weight_norm
c++下沉或装饰器 {'module': 'layer'}; 新增API paddle.nn.utils.parametrizations.weight_norm;
314
torch.ormqr
paddle.linalg.ormqr
c++下沉或装饰器 {'input': 'x', 'input2': 'tau', 'input3': 'y'}; 新增out; 新增API paddle.ormqr;
315
torch.pca_lowrank
paddle.linalg.pca_lowrank
c++下沉或装饰器 {'A': 'x'}; 新增API paddle.pca_lowrank;
316
torch.pinverse
paddle.linalg.pinv
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.pinverse;
317
torch.qr
paddle.linalg.qr
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.qr;
318
torch.rrelu
paddle.nn.functional.rrelu
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.rrelu;
319
torch.selu
paddle.nn.functional.selu
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.selu;
320
torch.set_default_tensor_type
paddle.set_default_dtype
c++下沉或装饰器 {'t': 'd'}; 新增API paddle.set_default_tensor_type;
321
torch.sparse.FloatTensor
paddle.sparse.sparse_coo_tensor
c++下沉或装饰器 {'size': 'shape', 'device': 'place'}; 新增API paddle.sparse.FloatTensor;
322
torch.sparse.mm
paddle.sparse.matmul
c++下沉或装饰器 {'sparse': 'x', 'dense': 'y'}; 新增API paddle.sparse.mm;
323
torch.sparse.softmax
paddle.sparse.nn.functional.softmax
c++下沉或装饰器 {'input': 'x', 'dim': 'axis'}; 新增API paddle.sparse.softmax;
324
torch.sparse_coo_tensor
paddle.sparse.sparse_coo_tensor
c++下沉或装饰器 {'size': 'shape', 'dtype': 'dtype', 'device': 'place', 'check_invariants': ''}; 新增API paddle.sparse_coo_tensor;
325
torch.sparse_csr_tensor
paddle.sparse.sparse_csr_tensor
c++下沉或装饰器 {'crow_indices': 'crows', 'col_indices': 'cols', 'size': 'shape', 'dtype': 'dtype', 'device': 'place', 'pin_memory': '', 'check_invariants': ''}; 新增API paddle.sparse_csr_tensor;
326
torch.special.digamma
paddle.digamma
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.digamma;
327
torch.special.erf
paddle.erf
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.erf;
328
torch.special.erfinv
paddle.erfinv
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.erfinv;
329
torch.special.gammainc
paddle.gammainc
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out; 新增API paddle.special.gammainc;
330
torch.special.gammaincc
paddle.gammaincc
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out; 新增API paddle.special.gammaincc;
331
torch.special.gammaln
paddle.gammaln
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.gammaln;
332
torch.special.i0
paddle.i0
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.i0;
333
torch.special.i0e
paddle.i0e
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.i0e;
334
torch.special.i1
paddle.i1
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.i1;
335
torch.special.i1e
paddle.i1e
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.i1e;
336
torch.special.log1p
paddle.log1p
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.log1p;
337
torch.special.log_softmax
paddle.nn.functional.log_softmax
c++下沉或装饰器 {'input': 'x', 'dim': 'axis', 'dtype': 'dtype'}; 新增API paddle.special.log_softmax;
338
torch.special.multigammaln
paddle.multigammaln
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.multigammaln;
339
torch.special.polygamma
paddle.polygamma
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.polygamma;
340
torch.special.psi
paddle.digamma
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.psi;
341
torch.special.sinc
paddle.sinc
c++下沉或装饰器 {'input': 'x'}; 新增out; 新增API paddle.special.sinc;
342
torch.stft
paddle.signal.stft
c++下沉或装饰器 {'input': 'x'}; 新增API paddle.stft;
343
torch.svd_lowrank
paddle.linalg.svd_lowrank
c++下沉或装饰器 {'A': 'x'}; 新增API paddle.svd_lowrank;
344
torch.symeig
paddle.linalg.eigh
c++下沉或装饰器 {'input': 'x', 'upper': 'UPLO'}; 新增out; 新增API paddle.symeig;
345
torch.triangular_solve
paddle.linalg.triangular_solve
c++下沉或装饰器 {'input': 'y', 'A': 'x'}; 新增out; 新增API paddle.triangular_solve;
346
torch.vdot
paddle.dot
c++下沉或装饰器 {'input': 'x', 'other': 'y'}; 新增out; 新增API paddle.vdot;
347
torch.Tensor.aminmax
新增API
348
torch.Tensor.cuda
paddle.Tensor.cuda
支持int及paddle.device输入
349
torch.Tensor.diag
paddle.Tensor.diag
方案2:c++下沉或装饰器 {'diagonal': 'offset'}
350
torch.Tensor.fill_diagonal_
paddle.Tensor.fill_diagonal_
方案2:c++下沉或装饰器 {'fill_value': 'value'}
351
torch.Tensor.nelement
paddle.Tensor.size
方案4:新增API,仅调用方式不一致 paddle.Tensor.size
352
torch.Tensor.std
paddle.Tensor.std
方案2:c++下沉或装饰器 {'dim': 'axis', 'correction': 'unbiased'}
353
torch._assert
新增API
354
torch.addcmul
新增API
355
torch.allclose
paddle.allclose
方案2:c++下沉或装饰器 {'input': 'x', 'other': 'y'}
356
torch.bitwise_or
paddle.bitwise_or
方案2:c++下沉或装饰器 {'input': 'x', 'other': 'y'};新增out
357
torch.conv_transpose2d
paddle.nn.functional.conv2d_transpose
新增API别名,新增装饰器
358
torch.cuda.amp.GradScaler
paddle.amp.GradScaler
方案2:c++下沉或装饰器 {'init_scale': 'init_loss_scaling', 'growth_factor': 'incr_ratio', 'backoff_factor': 'decr_ratio', 'growth_interval': 'incr_every_n_steps', 'enabled': 'enable'}
359
torch.deg2rad
paddle.deg2rad
方案2:c++下沉或装饰器 {'input': 'x'};新增out
360
torch.inverse
paddle.inverse
方案2:c++下沉或装饰器 {'input': 'x'};新增out
361
torch.lerp
paddle.lerp
方案2:c++下沉或装饰器 {'input': 'x', 'end': 'y'};新增out
362
torch.mm
paddle.mm
新增out参数
363
torch.nn.ConvTranspose2d
paddle.nn.Conv2DTranspose
新增API别名,新增bias、device、dtype、padding_mode参数
364
torch.nn.Module.train
paddle.nn.Layer.train
方案4:新增参数 ['mode']
365
torch.nn.Module.zero_grad
paddle.nn.Layer.clear_gradients
新增API
366
torch.nn.ParameterDict
paddle.nn.ParameterDict
方案2:c++下沉或装饰器 {'values': 'parameters'}
367
torch.nn.functional.conv_transpose2d
paddle.nn.functional.conv2d_transpose
新增API别名+装饰器
368
torch.nn.functional.leaky_relu
paddle.nn.functional.leaky_relu
方案2:c++下沉或装饰器 {'input': 'x'}
369
torch.nn.functional.log_softmax
paddle.nn.functional.log_softmax
新增 paddle.compat.nn.functional.log_softmax,完全对齐torch,参考paddle.compat.nn.functional.softmax的实现
370
torch.nn.functional.relu
paddle.nn.functional.relu
方案2:c++下沉或装饰器 {'input': 'x'}
371
torch.optim.Optimizer.step
paddle.optimizer.Optimizer.step
方案4:新增参数 ['closure']
372
torch.randint
paddle.randint
方案2:c++下沉或装饰器 {'size': 'shape', 'dtype': 'dtype'};新增out
373
torch.random.get_rng_state
新增API别名
374
torch.relu
paddle.nn.functional.relu
方案2:c++下沉或装饰器 {'input': 'x'}
375
torch.special.logit
paddle.logit
新增API别名;装饰器 {'input': 'x'};新增out
376
torch.square
paddle.square
方案2:c++下沉或装饰器 {'input': 'x'};新增out
377
torch.std
paddle.std
方案2:c++下沉或装饰器 {'input': 'x', 'dim': 'axis', 'correction': 'unbiased'};新增out
378
torch.tan
paddle.tan
方案2:c++下沉或装饰器 {'input': 'x'}
379
torch.Tensor.exponential_
paddle.Tensor.exponential_
方案2:c++下沉或装饰器 {'lambd': 'lam'}
380
torch.Tensor.is_cpu
新增API
381
torch.Tensor.numpy
paddle.Tensor.numpy
新增参数force
382
torch.Tensor.tile
paddle.Tensor.tile
装饰器 {'dims': 'repeat_times'}
383
torch.Tensor.type
paddle.Tensor.astype
新增API
384
torch.nn.utils.clip_grad_norm_
paddle.nn.utils.clip_grad_norm_
装饰器 {'foreach': ''};忽略foreach
385
torch.nn.functional.pixel_shuffle
paddle.nn.functional.pixel_shuffle
方案2:c++下沉或装饰器 {'input': 'x'}