ALiBi()
|
|
AvgPool1d(kernel_size[, stride, padding])
|
应用一维平均池化。 |
AvgPool2d(kernel_size[, stride, padding])
|
应用二维平均池化。 |
AvgPool3d(kernel_size[, stride, padding])
|
应用三维平均池化。 |
BatchNorm(num_features[, eps, momentum, ...])
|
在二维或三维输入上应用 Batch Normalization。 |
CELU([alpha])
|
应用连续可微指数线性单元。 |
Conv1d(in_channels, out_channels, kernel_size)
|
在多通道输入序列上应用一维卷积。 |
Conv2d(in_channels, out_channels, kernel_size)
|
在多通道输入图像上应用二维卷积。 |
Conv3d(in_channels, out_channels, kernel_size)
|
在多通道输入图像上应用三维卷积。 |
ConvTranspose1d(in_channels, out_channels, ...)
|
在多通道输入序列上应用一维转置卷积。 |
ConvTranspose2d(in_channels, out_channels, ...)
|
在多通道输入图像上应用二维转置卷积。 |
ConvTranspose3d(in_channels, out_channels, ...)
|
在多通道输入图像上应用三维转置卷积。 |
Dropout([p])
|
在训练期间随机将部分元素置零。 |
Dropout2d([p])
|
在训练期间应用二维通道级 Dropout。 |
Dropout3d([p])
|
在训练期间应用三维通道级 Dropout。 |
Embedding(num_embeddings, dims)
|
实现一个简单的查找表,将每个输入整数映射到高维向量。 |
ELU([alpha])
|
应用指数线性单元。 |
GELU([approx])
|
应用高斯误差线性单元。 |
GLU([axis])
|
应用门控线性单元函数。 |
GroupNorm(num_groups, dims[, eps, affine, ...])
|
对输入应用 Group Normalization [1]。 |
GRU(input_size, hidden_size[, bias])
|
门控循环单元 (GRU) RNN 层。 |
HardShrink()
|
应用 HardShrink 函数。 |
HardTanh()
|
应用 HardTanh 函数。 |
Hardswish()
|
逐元素应用 Hardswish 函数。 |
InstanceNorm(dims[, eps, affine])
|
对输入应用 Instance Normalization [1]。 |
LayerNorm(dims[, eps, affine, bias])
|
对输入应用 Layer Normalization [1]。 |
LeakyReLU([negative_slope])
|
应用 Leaky Rectified Linear Unit。 |
Linear(input_dims, output_dims[, bias])
|
对输入应用仿射变换。 |
LogSigmoid()
|
应用 Log Sigmoid 函数。 |
LogSoftmax()
|
应用 Log Softmax 函数。 |
LSTM(input_size, hidden_size[, bias])
|
LSTM 循环层。 |
MaxPool1d(kernel_size[, stride, padding])
|
应用一维最大池化。 |
MaxPool2d(kernel_size[, stride, padding])
|
应用二维最大池化。 |
MaxPool3d(kernel_size[, stride, padding])
|
应用三维最大池化。 |
Mish()
|
逐元素应用 Mish 函数。 |
MultiHeadAttention(dims, num_heads[, ...])
|
实现多头缩放点积注意力。 |
PReLU([num_parameters, init])
|
应用逐元素参数化 ReLU。 |
QuantizedEmbedding(num_embeddings, dims[, ...])
|
与 Embedding 相同,但使用量化权重矩阵。 |
QuantizedLinear(input_dims, output_dims[, ...])
|
使用量化权重矩阵对输入应用仿射变换。 |
RMSNorm(dims[, eps])
|
对输入应用 Root Mean Square Normalization [1]。 |
ReLU()
|
应用 Rectified Linear Unit。 |
ReLU6()
|
应用 Rectified Linear Unit 6。 |
RNN(input_size, hidden_size[, bias, ...])
|
Elman 循环层。 |
RoPE(dims[, traditional, base, scale])
|
实现旋转位置编码。 |
SELU()
|
应用 Scaled Exponential Linear Unit。 |
Sequential(*modules)
|
一个按顺序调用传入的可调用对象的层。 |
Sigmoid()
|
逐元素应用 Sigmoid 函数。 |
SiLU()
|
应用 Sigmoid Linear Unit。 |
SinusoidalPositionalEncoding(dims[, ...])
|
实现正弦位置编码。 |
Softmin()
|
应用 Softmin 函数。 |
Softshrink([lambd])
|
应用 Softshrink 函数。 |
Softsign()
|
应用 Softsign 函数。 |
Softmax()
|
应用 Softmax 函数。 |
Softplus()
|
应用 Softplus 函数。 |
Step([threshold])
|
应用 Step 激活函数。 |
Tanh()
|
应用双曲正切函数。 |
Transformer(dims, num_heads, ...)
|
实现标准 Transformer 模型。 |
Upsample(scale_factor[, mode, align_corners])
|
在空间上对输入信号进行上采样。 |