ALiBi ()
|
|
AvgPool1d (kernel_size[, stride, padding])
|
应用一维平均池化。 |
AvgPool2d (kernel_size[, stride, padding])
|
应用二维平均池化。 |
AvgPool3d (kernel_size[, stride, padding])
|
应用三维平均池化。 |
BatchNorm (num_features[, eps, momentum, ...])
|
在二维或三维输入上应用 Batch Normalization。 |
CELU ([alpha])
|
应用连续可微指数线性单元。 |
Conv1d (in_channels, out_channels, kernel_size)
|
在多通道输入序列上应用一维卷积。 |
Conv2d (in_channels, out_channels, kernel_size)
|
在多通道输入图像上应用二维卷积。 |
Conv3d (in_channels, out_channels, kernel_size)
|
在多通道输入图像上应用三维卷积。 |
ConvTranspose1d (in_channels, out_channels, ...)
|
在多通道输入序列上应用一维转置卷积。 |
ConvTranspose2d (in_channels, out_channels, ...)
|
在多通道输入图像上应用二维转置卷积。 |
ConvTranspose3d (in_channels, out_channels, ...)
|
在多通道输入图像上应用三维转置卷积。 |
Dropout ([p])
|
在训练期间随机将部分元素置零。 |
Dropout2d ([p])
|
在训练期间应用二维通道级 Dropout。 |
Dropout3d ([p])
|
在训练期间应用三维通道级 Dropout。 |
Embedding (num_embeddings, dims)
|
实现一个简单的查找表,将每个输入整数映射到高维向量。 |
ELU ([alpha])
|
应用指数线性单元。 |
GELU ([approx])
|
应用高斯误差线性单元。 |
GLU ([axis])
|
应用门控线性单元函数。 |
GroupNorm (num_groups, dims[, eps, affine, ...])
|
对输入应用 Group Normalization [1]。 |
GRU (input_size, hidden_size[, bias])
|
门控循环单元 (GRU) RNN 层。 |
HardShrink ()
|
应用 HardShrink 函数。 |
HardTanh ()
|
应用 HardTanh 函数。 |
Hardswish ()
|
逐元素应用 Hardswish 函数。 |
InstanceNorm (dims[, eps, affine])
|
对输入应用 Instance Normalization [1]。 |
LayerNorm (dims[, eps, affine, bias])
|
对输入应用 Layer Normalization [1]。 |
LeakyReLU ([negative_slope])
|
应用 Leaky Rectified Linear Unit。 |
Linear (input_dims, output_dims[, bias])
|
对输入应用仿射变换。 |
LogSigmoid ()
|
应用 Log Sigmoid 函数。 |
LogSoftmax ()
|
应用 Log Softmax 函数。 |
LSTM (input_size, hidden_size[, bias])
|
LSTM 循环层。 |
MaxPool1d (kernel_size[, stride, padding])
|
应用一维最大池化。 |
MaxPool2d (kernel_size[, stride, padding])
|
应用二维最大池化。 |
MaxPool3d (kernel_size[, stride, padding])
|
应用三维最大池化。 |
Mish ()
|
逐元素应用 Mish 函数。 |
MultiHeadAttention (dims, num_heads[, ...])
|
实现多头缩放点积注意力。 |
PReLU ([num_parameters, init])
|
应用逐元素参数化 ReLU。 |
QuantizedEmbedding (num_embeddings, dims[, ...])
|
与 Embedding 相同,但使用量化权重矩阵。 |
QuantizedLinear (input_dims, output_dims[, ...])
|
使用量化权重矩阵对输入应用仿射变换。 |
RMSNorm (dims[, eps])
|
对输入应用 Root Mean Square Normalization [1]。 |
ReLU ()
|
应用 Rectified Linear Unit。 |
ReLU6 ()
|
应用 Rectified Linear Unit 6。 |
RNN (input_size, hidden_size[, bias, ...])
|
Elman 循环层。 |
RoPE (dims[, traditional, base, scale])
|
实现旋转位置编码。 |
SELU ()
|
应用 Scaled Exponential Linear Unit。 |
Sequential (*modules)
|
一个按顺序调用传入的可调用对象的层。 |
Sigmoid ()
|
逐元素应用 Sigmoid 函数。 |
SiLU ()
|
应用 Sigmoid Linear Unit。 |
SinusoidalPositionalEncoding (dims[, ...])
|
实现正弦位置编码。 |
Softmin ()
|
应用 Softmin 函数。 |
Softshrink ([lambd])
|
应用 Softshrink 函数。 |
Softsign ()
|
应用 Softsign 函数。 |
Softmax ()
|
应用 Softmax 函数。 |
Softplus ()
|
应用 Softplus 函数。 |
Step ([threshold])
|
应用 Step 激活函数。 |
Tanh ()
|
应用双曲正切函数。 |
Transformer (dims, num_heads, ...)
|
实现标准 Transformer 模型。 |
Upsample (scale_factor[, mode, align_corners])
|
在空间上对输入信号进行上采样。 |