#

ALiBi()

AvgPool1d(kernel_size[, stride, padding])

应用一维平均池化。

AvgPool2d(kernel_size[, stride, padding])

应用二维平均池化。

AvgPool3d(kernel_size[, stride, padding])

应用三维平均池化。

BatchNorm(num_features[, eps, momentum, ...])

在二维或三维输入上应用 Batch Normalization。

CELU([alpha])

应用连续可微指数线性单元。

Conv1d(in_channels, out_channels, kernel_size)

在多通道输入序列上应用一维卷积。

Conv2d(in_channels, out_channels, kernel_size)

在多通道输入图像上应用二维卷积。

Conv3d(in_channels, out_channels, kernel_size)

在多通道输入图像上应用三维卷积。

ConvTranspose1d(in_channels, out_channels, ...)

在多通道输入序列上应用一维转置卷积。

ConvTranspose2d(in_channels, out_channels, ...)

在多通道输入图像上应用二维转置卷积。

ConvTranspose3d(in_channels, out_channels, ...)

在多通道输入图像上应用三维转置卷积。

Dropout([p])

在训练期间随机将部分元素置零。

Dropout2d([p])

在训练期间应用二维通道级 Dropout。

Dropout3d([p])

在训练期间应用三维通道级 Dropout。

Embedding(num_embeddings, dims)

实现一个简单的查找表,将每个输入整数映射到高维向量。

ELU([alpha])

应用指数线性单元。

GELU([approx])

应用高斯误差线性单元。

GLU([axis])

应用门控线性单元函数。

GroupNorm(num_groups, dims[, eps, affine, ...])

对输入应用 Group Normalization [1]。

GRU(input_size, hidden_size[, bias])

门控循环单元 (GRU) RNN 层。

HardShrink()

应用 HardShrink 函数。

HardTanh()

应用 HardTanh 函数。

Hardswish()

逐元素应用 Hardswish 函数。

InstanceNorm(dims[, eps, affine])

对输入应用 Instance Normalization [1]。

LayerNorm(dims[, eps, affine, bias])

对输入应用 Layer Normalization [1]。

LeakyReLU([negative_slope])

应用 Leaky Rectified Linear Unit。

Linear(input_dims, output_dims[, bias])

对输入应用仿射变换。

LogSigmoid()

应用 Log Sigmoid 函数。

LogSoftmax()

应用 Log Softmax 函数。

LSTM(input_size, hidden_size[, bias])

LSTM 循环层。

MaxPool1d(kernel_size[, stride, padding])

应用一维最大池化。

MaxPool2d(kernel_size[, stride, padding])

应用二维最大池化。

MaxPool3d(kernel_size[, stride, padding])

应用三维最大池化。

Mish()

逐元素应用 Mish 函数。

MultiHeadAttention(dims, num_heads[, ...])

实现多头缩放点积注意力。

PReLU([num_parameters, init])

应用逐元素参数化 ReLU。

QuantizedEmbedding(num_embeddings, dims[, ...])

Embedding 相同,但使用量化权重矩阵。

QuantizedLinear(input_dims, output_dims[, ...])

使用量化权重矩阵对输入应用仿射变换。

RMSNorm(dims[, eps])

对输入应用 Root Mean Square Normalization [1]。

ReLU()

应用 Rectified Linear Unit。

ReLU6()

应用 Rectified Linear Unit 6。

RNN(input_size, hidden_size[, bias, ...])

Elman 循环层。

RoPE(dims[, traditional, base, scale])

实现旋转位置编码。

SELU()

应用 Scaled Exponential Linear Unit。

Sequential(*modules)

一个按顺序调用传入的可调用对象的层。

Sigmoid()

逐元素应用 Sigmoid 函数。

SiLU()

应用 Sigmoid Linear Unit。

SinusoidalPositionalEncoding(dims[, ...])

实现正弦位置编码。

Softmin()

应用 Softmin 函数。

Softshrink([lambd])

应用 Softshrink 函数。

Softsign()

应用 Softsign 函数。

Softmax()

应用 Softmax 函数。

Softplus()

应用 Softplus 函数。

Step([threshold])

应用 Step 激活函数。

Tanh()

应用双曲正切函数。

Transformer(dims, num_heads, ...)

实现标准 Transformer 模型。

Upsample(scale_factor[, mode, align_corners])

在空间上对输入信号进行上采样。