对由多个输入平面组成的输入信号进行一维卷积.

有关详细信息和输出形状, 请参见.

注意

在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置torch.backends.cudn .deterministic = True来尝试使操作具有确定性(可能会以性能为代价). 请参阅关于 了解背景.

参数:

  • input – 输入张量, 形状为 )
  • weight – 卷积核, 形状为 torch.nn.functional - 图2)
  • bias – 可选的偏置, 形状为 ). 默认值: None
  • stride – 卷积核的步幅, 可以是单个数字或一个元素元组(sW,). 默认值: 1
  • padding – 在输入的两边隐式加零. 可以是单个数字或一个元素元组(padW, ). 默认值: 0
  • dilation – 核元素之间的空洞. 可以是单个数字或单元素元组(dW,). 默认值: 1
  • groups – 将输入分组, torch.nn.functional - 图4 应该可以被组的数目整除. 默认值: 1

例子:

  1. >>> filters = torch.randn(33, 16, 3)
  2. >>> inputs = torch.randn(20, 16, 50)
  3. >>> F.conv1d(inputs, filters)

conv2d

  1. torch.nn.functional.conv2d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1) Tensor

对由多个输入平面组成的输入图像应用二维卷积.

有关详细信息和输出形状, 请参见.

注意

在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置torch.backends.cudn .deterministic = True来尝试使操作具有确定性(可能会以性能为代价). 请参阅关于 Reproducibility 了解背景.

参数:

  • input – 输入张量, 形状为 )
  • weight – 卷积核, 形状为 torch.nn.functional - 图6)
  • bias – 可选的偏置, 形状为 ). 默认值: None
  • stride – 卷积核的步幅, 可以是单个数字或一个元素元组 (sH, sW). 默认值: 1
  • padding – 在输入的两边隐式加零. 可以是单个数字或一个元素元组 (padH, padW). 默认值: 0
  • dilation – 核元素之间的空洞. 可以是单个数字或单元素元组 (dH, dW). 默认值: 1
  • groups – 将输入分组, torch.nn.functional - 图8 应该可以被组的数目整除. 默认值: 1

例子:

  1. >>> # With square kernels and equal stride
  2. >>> filters = torch.randn(8,4,3,3)
  3. >>> inputs = torch.randn(1,4,5,5)
  4. >>> F.conv2d(inputs, filters, padding=1)

conv3d

  1. torch.nn.functional.conv3d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1) Tensor

对由多个输入平面组成的输入图像应用三维卷积.

有关详细信息和输出形状, 请参见 Conv3d.

注意

在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置torch.backends.cudn .deterministic = True来尝试使操作具有确定性(可能会以性能为代价). 请参阅关于 了解背景.

参数:

  • input – 输入张量, 形状为 )
  • weight – 卷积核, 形状为 torch.nn.functional - 图10)
  • bias – 可选的偏置, 形状为 ). 默认值: None
  • stride – 卷积核的步幅, 可以是单个数字或一个元素元组 (sT, sH, sW). 默认值: 1
  • padding – 在输入的两边隐式加零. 可以是单个数字或一个元素元组 (padT, padH, padW). 默认值: 0
  • dilation – 核元素之间的空洞. 可以是单个数字或单元素元组 (dT, dH, dW). 默认值: 1
  • groups – 将输入分组, torch.nn.functional - 图12 应该可以被组的数目整除. 默认值: 1

例子:

  1. >>> filters = torch.randn(33, 16, 3, 3, 3)
  2. >>> inputs = torch.randn(20, 16, 50, 10, 20)
  3. >>> F.conv3d(inputs, filters)

conv_transpose1d

  1. torch.nn.functional.conv_transpose1d(input, weight, bias=None, stride=1, padding=0, output_padding=0, groups=1, dilation=1) Tensor

对由多个输入平面组成的输入信号应用一维转置卷积操作, 有时也称为反卷积.

有关详细信息和输出形状, 请参见

注意

在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置torch.backends.cudn .deterministic = True来尝试使操作具有确定性(可能会以性能为代价). 请参阅关于 Reproducibility 了解背景.

参数:

  • input – 输入张量, 形状为 )
  • weight – 卷积核, 形状为 torch.nn.functional - 图14)
  • bias – 可选的偏置, 形状为 ). 默认值: None
  • stride – 卷积核的步幅, 可以是单个数字或一个元素元组 (sW,). 默认值: 1
  • padding – 输入中的每个维度的两边都将添加零填充kernel_size - 1 - padding. 可以是单个数字或元组 (padW,). 默认值: 0
  • output_padding – 添加到输出形状中每个维度的一侧的额外大小. 可以是单个数字或元组 (out_padW). 默认值: 0
  • groups – 将输入分组, torch.nn.functional - 图16 应该可以被组的数目整除. 默认值: 1
  • dilation – 核元素之间的空洞. 可以是单个数字或单元素元组 (dW,). 默认值: 1

例子:

  1. >>> inputs = torch.randn(20, 16, 50)
  2. >>> weights = torch.randn(16, 33, 5)
  3. >>> F.conv_transpose1d(inputs, weights)

conv_transpose2d

  1. torch.nn.functional.conv_transpose2d(input, weight, bias=None, stride=1, padding=0, output_padding=0, groups=1, dilation=1) Tensor

对由多个输入平面组成的输入图像应用二维转置卷积操作, 有时也称为反卷积.

有关详细信息和输出形状, 请参见 ConvTranspose2d.

注意

在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置torch.backends.cudn .deterministic = True来尝试使操作具有确定性(可能会以性能为代价). 请参阅关于 了解背景.

参数:

  • input – 输入张量, 形状为 )
  • weight – 卷积核, 形状为 torch.nn.functional - 图18)
  • bias –可选的偏置, 形状为 ). 默认值: None
  • stride – 卷积核的步幅, 可以是单个数字或一个元素元组 (sH, sW). 默认值: 1
  • padding – 输入中的每个维度的两边都将添加零填充kernel_size - 1 - padding. 可以是单个数字或元组 (padH, padW). 默认值: 0
  • output_padding – 添加到输出形状中每个维度的一侧的额外大小. 可以是单个数字或元组 (out_padH, out_padW). 默认值: 0
  • groups – 将输入分组, torch.nn.functional - 图20 应该可以被组的数目整除. 默认值: 1
  • dilation – 核元素之间的空洞. 可以是单个数字或单元素元组 (dH, dW). 默认值: 1

例子:

  1. >>> # With square kernels and equal stride
  2. >>> inputs = torch.randn(1, 4, 5, 5)
  3. >>> weights = torch.randn(4, 8, 3, 3)
  4. >>> F.conv_transpose2d(inputs, weights, padding=1)

conv_transpose3d

  1. torch.nn.functional.conv_transpose3d(input, weight, bias=None, stride=1, padding=0, output_padding=0, groups=1, dilation=1) Tensor

对由多个输入平面组成的输入图像应用一个三维转置卷积操作, 有时也称为反卷积

有关详细信息和输出形状, 请参见 .

注意

在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置torch.backends.cudn .deterministic = True来尝试使操作具有确定性(可能会以性能为代价). 请参阅关于 Reproducibility 了解背景.

参数:

  • input – 输入张量, 形状为 )
  • weight – 卷积核, 形状为 torch.nn.functional - 图22)
  • bias –可选的偏置, 形状为 ). 默认值: None
  • stride – 卷积核的步幅, 可以是单个数字或一个元素元组 (sT, sH, sW). 默认值: 1
  • padding – 输入中的每个维度的两边都将添加零填充kernel_size - 1 - padding. 可以是单个数字或元组 (padT, padH, padW). 默认值: 0
  • output_padding – 添加到输出形状中每个维度的一侧的额外大小. 可以是单个数字或元组 (out_padT, out_padH, out_padW). 默认值: 0
  • groups – 将输入分组, torch.nn.functional - 图24 应该可以被组的数目整除. 默认值: 1
  • dilation – 核元素之间的空洞. 可以是单个数字或单元素元组 (dT, dH, dW). 默认值: 1

例子:

  1. >>> inputs = torch.randn(20, 16, 50, 10, 20)
  2. >>> weights = torch.randn(16, 33, 3, 3, 3)
  3. >>> F.conv_transpose3d(inputs, weights)

unfold

  1. torch.nn.functional.unfold(input, kernel_size, dilation=1, padding=0, stride=1)

从批量的输入张量中提取滑动局部块.

警告

目前, 仅支持四维(4D)的输入张量(批量的类似图像的张量).

细节请参阅 torch.nn.Unfold

fold

  1. torch.nn.functional.fold(input, output_size, kernel_size, dilation=1, padding=0, stride=1)

将一组滑动局部块数组合成一个大的张量.

警告

目前, 仅支持四维(4D)的输入张量(批量的类似图像的张量).

细节请参阅 torch.nn.Fold

池化函数

avg_pool1d

    对由多个输入平面组成的输入信号应用一维平均池化.

    有关详细信息和输出形状, 请参见 .

    参数:

    • input – 输入张量, 形状为 )
    • kernel_size – 窗口的大小. 可以是单个数字或元组 torch.nn.functional - 图26)
    • stride – 窗户的步幅. 可以是单个数字或元组 (sW,). 默认值: kernel_size
    • padding – 在输入的两边隐式加零. 可以是单个数字或一个元素元组 (padW,). 默认值: 0
    • ceil_mode – 如果 True, 将用 ceil 代替 floor计算输出形状. 默认值: False
    • count_include_pad – 如果 True, 将在平均计算中包括零填充. 默认值: True

    例子:

    1. >>> # pool of square window of size=3, stride=2
    2. >>> input = torch.tensor([[[1,2,3,4,5,6,7]]])
    3. >>> F.avg_pool1d(input, kernel_size=3, stride=2)
    4. tensor([[[ 2., 4., 6.]]])

    avg_pool2d

    1. torch.nn.functional.avg_pool2d(input, kernel_size, stride=None, padding=0, ceil_mode=False, count_include_pad=True) Tensor

    在 区域应用二维平均池化, 步幅为 torch.nn.functional - 图28 . 输出特征的数量等于输入平面的数量.

    有关详细信息和输出形状, 请参见 .

    参数:

    • input – input tensor )
    • kernel_size – 池化区域的大小, 可以是一个数字或者元组 torch.nn.functional - 图30)
    • stride – 池化步幅, 可以是一个数字或者元组 (sH, sW). 默认值: kernel_size
    • padding – 在输入的两边隐式加零. 可以是单个数字或一个元素元组 (padH, padW). 默认值: 0
    • ceil_mode – 如果 True, 将用 ceil 代替 floor计算输出形状. 默认值: False
    • count_include_pad – 如果 True, 将在平均计算中包括零填充. 默认值: True

    avg_pool3d

    1. torch.nn.functional.avg_pool3d(input, kernel_size, stride=None, padding=0, ceil_mode=False, count_include_pad=True) Tensor

    应 区域应用三维平均池化, 步幅为 torch.nn.functional - 图32 . 输出特征的数量等于 .

    有关详细信息和输出形状, 请参见 .

    参数:

    • input – 输入张量 torch.nn.functional - 图34)
    • kernel_size – 池化区域的大小, 可以是一个数字或者元组 )
    • stride – 池化步幅, 可以是一个数字或者元组 (sT, sH, sW). 默认值: kernel_size
    • padding – 在输入的两边隐式加零. 可以是单个数字或一个元素元组 (padT, padH, padW), 默认值: 0
    • ceil_mode – 如果 True, 将用 ceil 代替 floor计算输出形状. 默认值: False
    • count_include_pad – 如果 True, 将在平均计算中包括零填充. 默认值: True

    max_pool1d

    1. torch.nn.functional.max_pool1d(*args, **kwargs)

    对由多个输入平面组成的输入信号应用一维最大池化.

    详情见 .

    max_pool2d

    1. torch.nn.functional.max_pool2d(*args, **kwargs)

    对由多个输入平面组成的输入信号应用二维最大池化.

    详情见 .

    max_pool3d

    1. torch.nn.functional.max_pool3d(*args, **kwargs)

    对由多个输入平面组成的输入信号上应用三维最大池化.

    详情见 .

    max_unpool1d

    1. torch.nn.functional.max_unpool1d(input, indices, kernel_size, stride=None, padding=0, output_size=None)

    计算MaxPool1d的偏逆.

    请参见 .

    max_unpool2d

    1. torch.nn.functional.max_unpool2d(input, indices, kernel_size, stride=None, padding=0, output_size=None)

    计算MaxPool2d的偏逆.

    详情见 .

    max_unpool3d

    1. torch.nn.functional.max_unpool3d(input, indices, kernel_size, stride=None, padding=0, output_size=None)

    计算的MaxPool3d偏逆.

    详情见 .

    lp_pool1d

    1. torch.nn.functional.lp_pool1d(input, norm_type, kernel_size, stride=None, ceil_mode=False)

    在由多个输入平面组成的输入信号上应用一维幂平均池化. 如果所有输入的p次方的和为零, 梯度也为零.

    详情见 .

    lp_pool2d

    1. torch.nn.functional.lp_pool2d(input, norm_type, kernel_size, stride=None, ceil_mode=False)

    在由多个输入平面组成的输入信号上应用二维幂平均池化. 如果所有输入的p次方的和为零, 梯度也为零.

    详情见 .

    adaptive_max_pool1d

    1. torch.nn.functional.adaptive_max_pool1d(*args, **kwargs)

    在由多个输入平面组成的输入信号上应用一维自适应最大池化.

    请参见 和输出形状.

    参数:

    • output_size – 目标输出的大小(单个整数)
    • return_indices – 是否返回池化索引. 默认值: False

    adaptive_max_pool2d

    1. torch.nn.functional.adaptive_max_pool2d(*args, **kwargs)

    在由多个输入平面组成的输入信号上应用二维自适应最大池.

    请参见 和输出形状.

    参数:

    • output_size – 目标输出的大小(单个整数 或者 双整数元组)
    • return_indices – 是否返回池化索引. 默认值: False

    adaptive_max_pool3d

    1. torch.nn.functional.adaptive_max_pool3d(*args, **kwargs)

    在由多个输入平面组成的输入信号上应用三维自适应最大池.

    请参见 和输出形状.

    参数:

    • output_size – 目标输出的大小(单个整数 或者 三整数元组)
    • return_indices – 是否返回池化索引. 默认值: False

    adaptive_avg_pool1d

    1. torch.nn.functional.adaptive_avg_pool1d(input, output_size) Tensor

    在由多个输入平面组成的输入信号上应用一维自适应平均池化.

    请参见 了解详情和输出的形状.

    参数:

    • output_size – 输出目标大小(单个整数)

    adaptive_avg_pool2d

    1. torch.nn.functional.adaptive_avg_pool2d(input, output_size)

    在由多个输入平面组成的输入信号上应用二维自适应平均池化.

    请参见 了解详情和输出的形状.

    参数:

    • output_size – 输出目标大小(单个整数 或者 双整数元组)

    adaptive_avg_pool3d

    1. torch.nn.functional.adaptive_avg_pool3d(input, output_size)

    在由多个输入平面组成的输入信号上应用三维自适应平均池化.

    请参见 了解详情和输出的形状.

    参数:

    • output_size – 输出目标大小(单个整数 或者 三整数元组)

    非线性激活函数

    threshold

    1. torch.nn.functional.threshold(input, threshold, value, inplace=False)

    为输入元素的每个元素设置阈值.

    请参见 Threshold.

    1. torch.nn.functional.threshold_(input, threshold, value) Tensor

    就地版的 .

    relu

    1. torch.nn.functional.relu(input, inplace=False) Tensor

    逐元素应用整流线性单元函数. 请参见 .

    1. torch.nn.functional.relu_(input) Tensor

    就地版的 relu().

    hardtanh

    1. torch.nn.functional.hardtanh(input, min_val=-1., max_val=1., inplace=False) Tensor

    逐元素应用hardtanh函数. 请参见 Hardtanh.

    1. torch.nn.functional.hardtanh_(input, min_val=-1., max_val=1.) Tensor

    原地版的 .

    relu6

    1. torch.nn.functional.relu6(input, inplace=False) Tensor

    逐元素应用函数 torch.nn.functional - 图36%20%3D%20%5Cmin(%5Cmax(0%2Cx)%2C%206)).

    请参见 .

    elu

    逐元素应用 %20%3D%20%5Cmax(0%2Cx)%20%2B%20%5Cmin(0%2C%20%5Calpha%20*%20(%5Cexp(x)%20-%201))).

    请参见 .

    1. torch.nn.functional.elu_(input, alpha=1.) Tensor

    就地版的 elu().

    1. torch.nn.functional.selu(input, inplace=False) Tensor

    逐元素应用 torch.nn.functional - 图38%20%3D%20scale%20%20(%5Cmax(0%2Cx)%20%2B%20%5Cmin(0%2C%20%5Calpha%20%20(%5Cexp(x)%20-%201)))), 其中 并且 torch.nn.functional - 图40.

    请参见 .

    celu

    1. torch.nn.functional.celu(input, alpha=1., inplace=False) Tensor

    请参见 .

    leaky_relu

    1. torch.nn.functional.leaky_relu(input, negative_slope=0.01, inplace=False) Tensor

    逐元素应用 %20%3D%20%5Cmax(0%2C%20x)%20%2B%20%5Ctext%7Bnegative%5C_slope%7D%20*%20%5Cmin(0%2C%20x))

    请参见 .

    1. torch.nn.functional.leaky_relu_(input, negative_slope=0.01) Tensor

    就地版的 leaky_relu().

    prelu

    1. torch.nn.functional.prelu(input, weight) Tensor

    逐元素应用函数 torch.nn.functional - 图43%20%3D%20%5Cmax(0%2Cx)%20%2B%20%5Ctext%7Bweight%7D%20*%20%5Cmin(0%2Cx)) 其中,权重是可学习的参数.

    请参见 PReLU.

    rrelu

    1. torch.nn.functional.rrelu(input, lower=1./8, upper=1./3, training=False, inplace=False) Tensor

    随机的 leaky ReLU.

    请参见 RReLU.

    1. torch.nn.functional.rrelu_(input, lower=1./8, upper=1./3, training=False) Tensor

    就地版的 .

    glu

    1. torch.nn.functional.glu(input, dim=-1) Tensor

    门控线性单元. 计算:)

    其中inpuy沿dim分成两半, 形成AB.

    见 .

    参数:

    • input (Tensor) – 输入张量
    • dim () – 用于分割输入的维度

    logsigmoid

    1. torch.nn.functional.logsigmoid(input) Tensor

    逐元素应用 torch.nn.functional - 图45%20%3D%20%5Clog%20%5Cleft(%5Cfrac%7B1%7D%7B1%20%2B%20%5Cexp(-x_i)%7D%5Cright))

    请参见 .

    hardshrink

    1. torch.nn.functional.hardshrink(input, lambd=0.5) Tensor

    逐元素应用hardshrink函数

    请参见 .

    tanhshrink

    1. torch.nn.functional.tanhshrink(input) Tensor

    逐元素应用, %20%3D%20x%20-%20%5Ctext%7BTanh%7D(x))

    请参见 .

    softsign

    1. torch.nn.functional.softsign(input) Tensor

    逐元素应用, the function torch.nn.functional - 图47%20%3D%20%5Cfrac%7Bx%7D%7B1%20%2B%20%7Cx%7C%7D)

    请参见 .

    softplus

    1. torch.nn.functional.softplus(input, beta=1, threshold=20) Tensor

    softmin

    1. torch.nn.functional.softmin(input, dim=None, _stacklevel=3, dtype=None)

    应用 softmin 函数.

    注意 %20%3D%20%5Ctext%7BSoftmax%7D(-x)). 数学公式见softmax定义

    请参见 Softmin.

    参数:

    • input () – 输入
    • dim (int) – 计算softmin的维度(因此dim上每个切片的和为1).
    • dtype (torch.dtype, 可选的) – 返回tenosr的期望数据类型.

    如果指定了参数, 输入张量在执行::param操作之前被转换为dtype. 这对于防止数据类型溢出非常有用. 默认值: None.

    softmax

    1. torch.nn.functional.softmax(input, dim=None, _stacklevel=3, dtype=None)

    应用 softmax 函数.

    Softmax定义为:torch.nn.functional - 图49%20%3D%20%5Cfrac%7Bexp(x_i)%7D%7B%5Csum_j%20exp(x_j)%7D)

    它应用于dim上的所有切片, 并将对它们进行重新缩放, 使元素位于(0,1)范围内, 和为1.

    请参见 Softmax.

    参数:

    • input () – 输入
    • dim (int) – 将计算softmax的维度.
    • dtype (torch.dtype, 可选的) – 返回tenosr的期望数据类型.

    :如果指定了参数, 输入张量在执行::param操作之前被转换为dtype. 这对于防止数据类型溢出非常有用. 默认值: None.

    注意

    这个函数不能直接处理NLLLoss, NLLLoss要求日志在Softmax和它自己之间计算. 使用log_softmax来代替(它更快,并且具有更好的数值属性).

    softshrink

    1. torch.nn.functional.softshrink(input, lambd=0.5) Tensor

    逐元素应用 soft shrinkage 函数

    请参见 Softshrink.

    gumbel_softmax

    1. torch.nn.functional.gumbel_softmax(logits, tau=1.0, hard=False, eps=1e-10)

    采样自Gumbel-Softmax分布, 并可选择离散化.

    参数:

    • logits[batch_size, num_features] 非规范化对数概率
    • tau – 非负的对抗强度
    • hard – 如果 True, 返回的样本将会离散为 one-hot 向量, 但将会是可微分的,就像是在自动求导的soft样本一样

    返回值:

    • 从 Gumbel-Softmax 分布采样的 tensor, 形状为 batch_size x num_features . 如果 hard=True, 返回值是 one-hot 编码, 否则, 它们就是特征和为1的概率分布

    约束:

    • 目前仅支持二维的 logits 输入张量, 形状为 batch_size x num_features

    基于 https://github.com/ericjang/gumbel-softmax/blob/3c8584924603869e90ca74ac20a6a03d99a91ef9/Categorical%20VAE.ipynb , (MIT license)

    log_softmax

    1. torch.nn.functional.log_softmax(input, dim=None, _stacklevel=3, dtype=None)

    应用 softmax 和对数运算.

    虽然在数学上等价于log(softmax(x)), 但分开执行这两个操作比较慢, 而且在数值上不稳定. 这个函数使用另一种公式来正确计算输出和梯度.

    请参见 LogSoftmax.

    参数:

    • input () – 输入
    • dim (int) – 计算log_softmax的维度.
    • dtype (torch.dtype, 可选的) – 返回张量的期望数据类型.

    :如果指定了参数, 输入张量在执行::param操作之前被转换为dtype. 这对于防止数据类型溢出非常有用. 默认值: None.

    tanh

    1. torch.nn.functional.tanh(input) Tensor

    逐元素应用 %20%3D%20%5Ctanh(x)%20%3D%20%5Cfrac%7B%5Cexp(x)%20-%20%5Cexp(-x)%7D%7B%5Cexp(x)%20%2B%20%5Cexp(-x)%7D)

    请参见 .

    sigmoid

    1. torch.nn.functional.sigmoid(input) Tensor

    逐元素应用函数 torch.nn.functional - 图51%20%3D%20%5Cfrac%7B1%7D%7B1%20%2B%20%5Cexp(-x)%7D)

    请参见 Sigmoid.

    batch_norm

    1. torch.nn.functional.batch_norm(input, running_mean, running_var, weight=None, bias=None, training=False, momentum=0.1, eps=1e-05)

    对一批数据中的每个通道应用批量标准化.

    请参见 BatchNorm1d, , BatchNorm3d.

    instance_norm

    1. torch.nn.functional.instance_norm(input, running_mean=None, running_var=None, weight=None, bias=None, use_input_stats=True, momentum=0.1, eps=1e-05)

    对批中每个数据样本中的每个通道应用实例规范化.

    请参见 InstanceNorm1d, , InstanceNorm3d.

    layer_norm

    1. torch.nn.functional.layer_norm(input, normalized_shape, weight=None, bias=None, eps=1e-05)

    对最后特定数量的维度应用layer规范化.

    请参见 LayerNorm.

    local_response_norm

    1. torch.nn.functional.local_response_norm(input, size, alpha=0.0001, beta=0.75, k=1.0)

    对由多个输入平面组成的输入信号进行局部响应归一化, 其中通道占据第二维. 跨通道应用标准化.

    请参见 LocalResponseNorm.

    normalize

    1. torch.nn.functional.normalize(input, p=2, dim=1, eps=1e-12, out=None)

    对指定维度执行 规范化.

    对于一个尺寸为 torch.nn.functional - 图53)的输入张量, 每一 -元素向量torch.nn.functional - 图55 沿着维度 dim 被转换为%7D.%0D%0A%0D%0A)

    对于默认参数, 它使用沿维度torch.nn.functional - 图57的欧几里得范数进行标准化.

    参数:

    • input – 任意形状的输入张量
    • p (float) – 范数公式中的指数值. 默认值: 2
    • dim () – 进行规约的维度. 默认值: 1
    • eps (float) – 避免除以零的小值. 默认值: 1e-12
    • out (, 可选的) – 输出张量. 如果 out 被设置, 此操作不可微分.

    线性函数

    linear

    1. torch.nn.functional.linear(input, weight, bias=None)

    对传入数据应用线性转换: .

    形状:

    • Input: torch.nn.functional - 图59) * 表示任意数量的附加维度
    • Weight: )
    • Bias: torch.nn.functional - 图61)
    • Output: )

    bilinear

    1. torch.nn.functional.bilinear(input1, input2, weight, bias=None)

    Dropout 函数

    dropout

    1. torch.nn.functional.dropout(input, p=0.5, training=True, inplace=False)

    在训练过程中, 使用伯努利分布的样本, 随机地用概率p将输入张量的一些元素归零.

    请参见 .

    参数:

    • p – 清零概率. 默认值: 0.5
    • training – 如果 True 使用 dropout. 默认值: True
    • inplace – 如果设置为 True, 将会原地操作. 默认值: False

    alpha_dropout

    1. torch.nn.functional.alpha_dropout(input, p=0.5, training=False, inplace=False)

    对输入应用 alpha dropout.

    请参见 .

    dropout2d

    1. torch.nn.functional.dropout2d(input, p=0.5, training=True, inplace=False)

    随机归零输入张量的整个通道 (一个通道是一个二维特征图, 例如, 在批量输入中第j个通道的第i个样本是一个二维张量的输入[i,j]). 每次前向传递时, 每个信道都将被独立清零. 用概率 p 从 Bernoulli 分布采样.

    请参见 .

    参数:

    • p – 通道清零的概率. 默认值: 0.5
    • training – 使用 dropout 如果设为 True. 默认值: True
    • inplace – 如果设置为 True, 将会做原地操作. 默认值: False

    dropout3d

    1. torch.nn.functional.dropout3d(input, p=0.5, training=True, inplace=False)

    随机归零输入张量的整个通道 (一个通道是一个三维特征图, 例如, 在批量输入中第j个通道的第i个样本是一个三维张量的输入[i,j]). 每次前向传递时, 每个信道都将被独立清零. 用概率 p 从 Bernoulli 分布采样.

    请参见 .

    参数:

    • p – 通道清零的概率. 默认值: 0.5
    • training – 使用 dropout 如果设为 True. 默认值: True
    • inplace – 如果设置为 True, 将会做原地操作. 默认值: False

    embedding

    1. torch.nn.functional.embedding(input, weight, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False)

    一个简单的查找表, 查找固定字典中的embedding(嵌入)内容和大小.

    这个模块通常用于使用索引检索单词嵌入. 模块的输入是索引列表和嵌入矩阵, 输出是相应的单词嵌入.

    请参见 .

    参数:

    • input (LongTensor) – 包含嵌入矩阵中的索引的张量
    • weight (Tensor) – 嵌入矩阵的行数等于可能的最大索引数+ 1, 列数等于嵌入大小
    • padding_idx (, 可选的) – 如果给定, 每当遇到索引时, 在padding_idx (初始化为零)用嵌入向量填充输出.
    • max_norm (float, 可选的) – 如果给定, 则将范数大于max_norm的每个嵌入向量重新规范化, 得到范数max_norm. 注意:这将修改适当的weight.
    • norm_type (, 可选的) – 用于计算max_norm选项的p范数的p. 默认 2.
    • scale_grad_by_freq (boolean__, 可选的) – 如果给定, 这将通过小批处理中单词频率的倒数来缩放梯度. 默认 False.
    • sparse (bool, 可选的) – 如果值为 True, 梯度 w.r.t. weight 将会是一个稀疏 tensor. 请看 有关稀疏梯度的更多详细信息.

    形状:

    例子:

    1. >>> # a batch of 2 samples of 4 indices each
    2. >>> input = torch.tensor([[1,2,4,5],[4,3,2,9]])
    3. >>> # an embedding matrix containing 10 tensors of size 3
    4. >>> embedding_matrix = torch.rand(10, 3)
    5. >>> F.embedding(input, embedding_matrix)
    6. tensor([[[ 0.8490, 0.9625, 0.6753],
    7. [ 0.9666, 0.7761, 0.6108],
    8. [ 0.6246, 0.9751, 0.3618],
    9. [ 0.4161, 0.2419, 0.7383]],
    10. [[ 0.6246, 0.9751, 0.3618],
    11. [ 0.0237, 0.7794, 0.0528],
    12. [ 0.9666, 0.7761, 0.6108],
    13. [ 0.3385, 0.8612, 0.1867]]])
    14. >>> # example with padding_idx
    15. >>> weights = torch.rand(10, 3)
    16. >>> weights[0, :].zero_()
    17. >>> embedding_matrix = weights
    18. >>> input = torch.tensor([[0,2,0,5]])
    19. >>> F.embedding(input, embedding_matrix, padding_idx=0)
    20. tensor([[[ 0.0000, 0.0000, 0.0000],
    21. [ 0.5609, 0.5384, 0.8720],
    22. [ 0.0000, 0.0000, 0.0000],
    23. [ 0.6262, 0.2438, 0.7471]]])
    1. torch.nn.functional.embedding_bag(input, weight, offsets=None, max_norm=None, norm_type=2, scale_grad_by_freq=False, mode='mean', sparse=False)

    计算嵌入bags的和、平均值或最大值, 而不实例化中间嵌入.

    请参见 torch.nn.EmbeddingBag

    参数:

    • input (LongTensor) – 包含嵌入矩阵的索引的bags张量
    • weight () – 嵌入矩阵的行数等于可能的最大索引数+ 1, 列数等于嵌入大小
    • offsets (LongTensor__, 可选的) – 仅当input为一维时使用. offsets确定输入中每个bag(序列)的起始索引位置
    • max_norm (float, 可选的) – 如果给定此参数, 范数大于max_norm的每个嵌入向量将被重新规格化为范数max_norm. 注意:这将就地修改weight
    • norm_type (, 可选的) – The p in the p-norm to compute for the max_norm option. 默认 2.
    • scale_grad_by_freq (boolean__, 可选的) – 如果给定此参数, 这将通过小批处理中单词频率的倒数来缩放梯度. 默认值 False. 注意:当mode="max"时不支持此选项.
    • mode (string__, 可选的) – "sum", "mean" or "max". 指定减少bag的方法. 默认值: "mean"
    • sparse (bool, 可选的) – 如果True, 梯度w.r.t.权值就是一个稀疏张量.请参见 关于稀疏梯度. 注意: 此选项不支持 mode="max".

    形状:

    • input (LongTensor) 和 offsets (LongTensor, 可选的)
      • 如果 input 是二维的, 形状为 B x N,它将被视为每个固定长度NB个bag(序列), 这将根据模式以某种方式返回B个聚合值. 在本例中, offsets被忽略, 并且要求为None
      • 如果 input 是一维的, 形状为 N它将被视为多个bag(序列)的串联. offsets必须是一个一维tensor, 其中包含input中每个bag的起始索引位置. 因此, 对于形状B的偏移量, 输入将被视为有B个bag. 空bags( 即, 具有0长度)将返回由0填充的向量
    • weight (Tensor): 模块的可学习权重, 形状 (num_embeddings x embedding_dim)
    • output: 聚合的嵌入值, 形状 B x embedding_dim

    例子:

    1. >>> # an Embedding module containing 10 tensors of size 3
    2. >>> embedding_matrix = torch.rand(10, 3)
    3. >>> # a batch of 2 samples of 4 indices each
    4. >>> offsets = torch.tensor([0,4])
    5. >>> F.embedding_bag(embedding_matrix, input, offsets)
    6. tensor([[ 0.3397, 0.3552, 0.5545],
    7. [ 0.5893, 0.4386, 0.5882]])

    距离函数

    pairwise_distance

    1. torch.nn.functional.pairwise_distance(x1, x2, p=2.0, eps=1e-06, keepdim=False)

    请参见 torch.nn.PairwiseDistance

    cosine_similarity

    1. torch.nn.functional.cosine_similarity(x1, x2, dim=1, eps=1e-8) Tensor

    返回x1和x2之间的余弦相似度, 沿dim计算torch.nn.functional - 图63%7D%0D%0A%0D%0A)

    参数:

    • x1 (Tensor) – 第一个输入.
    • x2 () – 第二个输入(大小和 x1 匹配).
    • dim (int, 可选的) – 维度. 默认值: 1
    • eps (, 可选的) – 非常小的值避免除以0. 默认值: 1e-8

    形状:

    • Input: ) 其中D在dim位置.
    • Output: torch.nn.functional - 图65) 其中1在dim位置.

    例子:

    pdist

    1. torch.nn.functional.pdist(input, p=2) Tensor

    计算输入中每对行向量之间的p范数距离. 这与torch.norm(input[:, None] - input, dim=2, p=p)的上三角形部分(不包括对角线)相同. 如果行是连续的, 则此函数将更快

    如果输入具有形状 则输出将具有形状 torch.nn.functional - 图67).

    这个函数相当于 scipy.spatial.distance.pdist(input, ‘minkowski’, p=p) 如果 ). 当 torch.nn.functional - 图69 它等价于 scipy.spatial.distance.pdist(input, ‘hamming’) * M. 当 , 最相近的scipy函数是 scipy.spatial.distance.pdist(xn, lambda x, y: np.abs(x - y).max()).

    参数:

    • input – 输入张量, 形状为 torch.nn.functional - 图71.
    • p – 计算每个向量对之间的p范数距离的p值 .

    损失函数

    binary_cross_entropy

    1. torch.nn.functional.binary_cross_entropy(input, target, weight=None, size_average=None, reduce=None, reduction='mean')

    计算目标和输出之间二进制交叉熵的函数.

    请参见 .

    参数:

    • input – 任意形状的张量
    • target – 与输入形状相同的张量
    • weight (Tensor, 可选的) – 手动重新调整权重, 如果提供, 它重复来匹配输入张量的形状
    • size_average (, 可选的) – 废弃的 (见 reduction). 默认情况下, 批处理中的每个损失元素的平均损失. 注意, 对于某些损失, 每个样本有多个元素. 如果size_average设置为False, 则对每个小批的损失进行汇总. reduce为False时忽略. 默认值: True
    • reduce (bool, 可选的) – 废弃的 (见 reduction). 默认情况下, 根据size_average, 对每个小批量的观察结果的损失进行平均或求和. 当reduce为False时, 返回每批元素的损失并忽略size_average. 默认值: True
    • reduction (string__, 可选的) – 指定要应用于输出的reduction:’none’| ‘mean’| ‘sum’. ‘none’:没有reduction, ‘mean’:输出的总和将除以输出中的元素数量 ‘sum’:输出将被求和. 注意:size_averagereduce正在被弃用, 同时, 指定这两个args中的任何一个都将覆盖reduce. 默认值:’mean’, 默认值: ‘mean’

    例子:

    1. >>> input = torch.randn((3, 2), requires_grad=True)
    2. >>> target = torch.rand((3, 2), requires_grad=False)
    3. >>> loss = F.binary_cross_entropy(F.sigmoid(input), target)
    4. >>> loss.backward()

    binary_cross_entropy_with_logits

    1. torch.nn.functional.binary_cross_entropy_with_logits(input, target, weight=None, size_average=None, reduce=None, reduction='mean', pos_weight=None)

    计算目标和输出logits之间的二进制交叉熵的函数.

    请参见 BCEWithLogitsLoss.

    参数:

    • input – 任意形状的张量
    • target – 与输入形状相同的张量
    • weight (, 可选的) – 手动重新调整权重, 如果提供, 它重复来匹配输入张量的形状
    • size_average (bool, 可选的) – 废弃的 (见 reduction). 默认情况下, 批处理中的每个损失元素的平均损失. 注意, 对于某些损失, 每个样本有多个元素. 如果size_average设置为False, 则对每个小批的损失进行汇总. reduce为False时忽略. 默认值: True
    • reduce (, 可选的) – 废弃的 (见 reduction). 默认情况下, 根据size_average, 对每个小批量的观察结果的损失进行平均或求和. 当reduce为False时, 返回每批元素的损失并忽略size_average. 默认值: True
    • reduction (string__, 可选的) – 指定要应用于输出的reduction:’none’| ‘mean’| ‘sum’. ‘none’:没有reduction, ‘mean’:输出的总和将除以输出中的元素数量 ‘sum’:输出将被求和. 注意:size_averagereduce正在被弃用, 同时, 指定这两个args中的任何一个都将覆盖reduce. 默认值:’mean’, 默认值: ‘mean’
    • pos_weight (Tensor, 可选的) – 正例样本的权重. 必须是长度等于类数的向量.

    例子:

    1. >>> input = torch.randn(3, requires_grad=True)
    2. >>> target = torch.empty(3).random_(2)
    3. >>> loss = F.binary_cross_entropy_with_logits(input, target)
    4. >>> loss.backward()

    poisson_nll_loss

    1. torch.nn.functional.poisson_nll_loss(input, target, log_input=True, full=False, size_average=None, eps=1e-08, reduce=None, reduction='mean')

    请参见 PoissonNLLLoss.

    参数:

    • input – 潜在泊松分布的期望.
    • target – 随机抽样 torch.nn.functional - 图73).
    • log_input – 如果为True, 则损失计算为 %20-%20%5Ctext%7Btarget%7D%20%20%5Ctext%7Binput%7D), 如果为False, 则损失计算为 ![](%20%5Clog(%5Ctext%7Binput%7D%2B%5Ctext%7Beps%7D)). 默认值: True
    • full – 是否计算全部损失, 即. 加入Stirling近似项. 默认值: False torch.nn.functional - 图75%20-%20%5Ctext%7Btarget%7D%20%2B%200.5%20%20%5Clog(2%20%20%5Cpi%20*%20%5Ctext%7Btarget%7D)).
    • size_average (bool, 可选的) – 废弃的 (见 reduction). 默认情况下, 批处理中的每个损失元素的平均损失. 注意, 对于某些损失, 每个样本有多个元素. 如果size_average设置为False, 则对每个小批的损失进行汇总. reduce为False时忽略. 默认值: True
    • eps (, 可选的) – 一个小值避免求值 ) 当 log_input=False. 默认值: 1e-8
    • reduce (bool, 可选的) – 废弃的 (见 reduction). 默认情况下, 根据size_average, 对每个小批量的观察结果的损失进行平均或求和. 当reduce为False时, 返回每批元素的损失并忽略size_average. 默认值: True
    • reduction (string__, 可选的) – 指定要应用于输出的reduction:’none’| ‘mean’| ‘sum’. ‘none’:没有reduction, ‘mean’:输出的总和将除以输出中的元素数量 ‘sum’:输出将被求和. 注意:size_averagereduce正在被弃用, 同时, 指定这两个args中的任何一个都将覆盖reduce. 默认值:’mean’, 默认值: ‘mean’

    cosine_embedding_loss

    1. torch.nn.functional.cosine_embedding_loss(input1, input2, target, margin=0, size_average=None, reduce=None, reduction='mean') Tensor

    请参见 CosineEmbeddingLoss.

    cross_entropy

    1. torch.nn.functional.cross_entropy(input, target, weight=None, size_average=None, ignore_index=-100, reduce=None, reduction='mean')

    此函数结合了 log_softmaxnll_loss.

    请参见 CrossEntropyLoss.

    参数:

    • input () – torch.nn.functional - 图77) 其中 C = 类别数 或者在二维损失的情况下为 ), 或者 torch.nn.functional - 图79) 当 在k维损失的情况下
    • target (Tensor) – torch.nn.functional - 图81) 其中每个值都在 范围内, 或者 torch.nn.functional - 图83) 其中 在k维损失情况下.
    • weight (, 可选的) – 给每个类别的手动重定权重. 如果给定, 必须是大小为C的张量
    • size_average (bool, 可选的) – 废弃的 (见 reduction). 默认情况下, 批处理中的每个损失元素的平均损失. 注意, 对于某些损失, 每个样本有多个元素. 如果size_average设置为False, 则对每个小批的损失进行汇总. reduce为False时忽略. 默认值:
    • ignore_index (, 可选的) – 指定一个被忽略的目标值,该目标值不影响输入梯度。当 size_average 取值为 True, 损失平均在不可忽略的目标上. 默认值: -100
    • reduce (bool, 可选的) – 废弃的 (见 reduction). 默认情况下, 根据size_average, 对每个小批量的观察结果的损失进行平均或求和. 当reduce为False时, 返回每批元素的损失并忽略size_average. 默认值: True
    • reduction (string__, 可选的) – 指定要应用于输出的reduction:’none’| ‘mean’| ‘sum’. ‘none’:没有reduction, ‘mean’:输出的总和将除以输出中的元素数量 ‘sum’:输出将被求和. 注意:size_averagereduce正在被弃用, 同时, 指定这两个args中的任何一个都将覆盖reduce. 默认值:’mean’, 默认值: ‘mean’

    例子:

    1. >>> input = torch.randn(3, 5, requires_grad=True)
    2. >>> target = torch.randint(5, (3,), dtype=torch.int64)
    3. >>> loss = F.cross_entropy(input, target)
    4. >>> loss.backward()

    ctc_loss

    1. torch.nn.functional.ctc_loss(log_probs, targets, input_lengths, target_lengths, blank=0, reduction='mean')

    联结主义时间分类损失.

    请参见 CTCLoss.

    注意

    在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置torch.backends.cudn .deterministic = True来尝试使操作具有确定性(可能会以性能为代价). 请参阅关于 了解背景.

    注意

    当使用CUDA后端时, 此操作可能会导致不确定的向后行为, 并且不容易关闭. 请参阅关于Reproducibility的注释.

    参数:

    • log_probstorch.nn.functional - 图85) 其中 C = 字母表中包括空格在内的字符数, T = 输入长度, and N = 批次数量. 输出的对数概率(e.g. 获得于).
    • targets – ) or (sum(target_lengths)). 目标(不能为空). 在第二种形式中,假定目标是串联的。
    • input_lengthstorch.nn.functional - 图87). 输入的长度 (必须 )
    • target_lengthstorch.nn.functional - 图89). 目标的长度
    • blank (int, 可选的) – 空白的标签. 默认 .
    • reduction (string__, 可选的) - 指定要应用于输出的reduction:’none’| ‘mean’| ‘sum’. ‘none’:不会应用reduce, ‘mean’:输出损失将除以目标长度, 然后得到批次的平均值. 默认值:’mean’

    例子:

    1. >>> log_probs = torch.randn(50, 16, 20).log_softmax(2).detach().requires_grad_()
    2. >>> targets = torch.randint(1, 20, (16, 30), dtype=torch.long)
    3. >>> input_lengths = torch.full((16,), 50, dtype=torch.long)
    4. >>> target_lengths = torch.randint(10,30,(16,), dtype=torch.long)
    5. >>> loss = F.ctc_loss(log_probs, targets, input_lengths, target_lengths)
    6. >>> loss.backward()

    hinge_embedding_loss

    1. torch.nn.functional.hinge_embedding_loss(input, target, margin=1.0, size_average=None, reduce=None, reduction='mean') Tensor

    请参见 HingeEmbeddingLoss.

    kl_div

    1. torch.nn.functional.kl_div(input, target, size_average=None, reduce=None, reduction='mean')

    Kullback-Leibler divergence 损失.

    请参见

    参数:

    • input – 任意形状的张量
    • target – 和输入形状相同的张量
    • size_average (bool, 可选的) – 废弃的 (见 reduction). 默认情况下, 批处理中的每个损失元素的平均损失. 注意, 对于某些损失, 每个样本有多个元素. 如果size_average设置为False, 则对每个小批的损失进行汇总. reduce为False时忽略. 默认值: True
    • reduce (, 可选的) – 废弃的 (见 reduction). 默认情况下, 根据size_average, 对每个小批量的观察结果的损失进行平均或求和. 当reduce为False时, 返回每批元素的损失并忽略size_average. 默认值: True
    • reduction (string__, 可选的) – 指定要应用于输出的缩减:’none’| ‘batchmean’| ‘sum’| ‘mean’. ‘none’:不会应用reduction ‘batchmean’:输出的总和将除以batchsize ‘sum’:输出将被加总 ‘mean’:输出将除以输出中的元素数 默认值:’mean’

    :param 注::size averagereduce正在被弃用, 同时, 指定这两个arg中的一个将覆盖reduce.:param 注::reduce = mean不返回真实的kl散度值, 请使用:reduce = batchmean, 它符合kl的数学定义.

    l1_loss

    1. torch.nn.functional.l1_loss(input, target, size_average=None, reduce=None, reduction='mean') Tensor

    该函数取元素的绝对值差的平均值。

    请参见 .

    mse_loss

    1. torch.nn.functional.mse_loss(input, target, size_average=None, reduce=None, reduction='mean') Tensor

    计算元素的均方误差.

    请参见 .

    margin_ranking_loss

    1. torch.nn.functional.margin_ranking_loss(input1, input2, target, margin=0, size_average=None, reduce=None, reduction='mean') Tensor

    请参见 .

    multilabel_margin_loss

    1. torch.nn.functional.multilabel_margin_loss(input, target, size_average=None, reduce=None, reduction='mean') Tensor

    请参见 .

    multilabel_soft_margin_loss

    1. torch.nn.functional.multilabel_soft_margin_loss(input, target, weight=None, size_average=None) Tensor

    请参见 .

    multi_margin_loss

    1. torch.nn.functional.multi_margin_loss(input, target, p=1, margin=1.0, weight=None, size_average=None, reduce=None, reduction='mean')
    1. multi_margin_loss(input, target, p=1, margin=1, weight=None, size_average=None, reduce=None, reduction=’mean’) -> Tensor

    请参见 .

    nll_loss

    1. torch.nn.functional.nll_loss(input, target, weight=None, size_average=None, ignore_index=-100, reduce=None, reduction='mean')

    负的对数似然函数.

    请参见 .

    参数:

    • inputtorch.nn.functional - 图91) C = 类别的数量 或者 ) 在二维损失的情况下, 或者 torch.nn.functional - 图93) 在K维损失的情况下.
    • targettorch.nn.functional - 图95) 每个值是 , 或者 torch.nn.functional - 图97) K维损失.
    • weight (Tensor, 可选的) – 给每个类别的手动重定权重. 如果给定, 必须是大小为C的张量
    • size_average (, 可选的) – 废弃的 (见 reduction). 默认情况下, 批处理中的每个损失元素的平均损失. 注意, 对于某些损失, 每个样本有多个元素. 如果size_average设置为False, 则对每个小批的损失进行汇总. reduce为False时忽略. 默认值: True
    • ignore_index (int, 可选的) – 指定一个被忽略的目标值, 该值不会影响输入梯度. 当size_averageTrue时, 损耗在未忽略的目标上平均. 默认值: -100
    • reduce (, 可选的) – 废弃的 (见 reduction). 默认情况下, 根据size_average, 对每个小批量的观察结果的损失进行平均或求和. 当reduce为False时, 返回每批元素的损失并忽略size_average. 默认值: True
    • reduction (string__, 可选的) – 指定要应用于输出的reduction:’none’| ‘mean’| ‘sum’. ‘none’:没有reduction, ‘mean’:输出的总和将除以输出中的元素数量 ‘sum’:输出将被求和. 注意:size_averagereduce正在被弃用, 同时, 指定这两个args中的任何一个都将覆盖reduce. 默认值:’mean’, 默认值: ‘mean’

    例子:

    1. >>> # input is of size N x C = 3 x 5
    2. >>> input = torch.randn(3, 5, requires_grad=True)
    3. >>> # each element in target has to have 0 <= value < C
    4. >>> target = torch.tensor([1, 0, 4])
    5. >>> output = F.nll_loss(F.log_softmax(input), target)
    6. >>> output.backward()

    smooth_l1_loss

    1. torch.nn.functional.smooth_l1_loss(input, target, size_average=None, reduce=None, reduction='mean')

    如果绝对元素误差低于1, 则使用平方项, 否则使用L1项的函数.

    请参见 .

    soft_margin_loss

    1. torch.nn.functional.soft_margin_loss(input, target, size_average=None, reduce=None, reduction='mean') Tensor

    请参见 .

    triplet_margin_loss

    1. torch.nn.functional.triplet_margin_loss(anchor, positive, negative, margin=1.0, p=2, eps=1e-06, swap=False, size_average=None, reduce=None, reduction='mean')

    请参见

    pixel_shuffle

    1. torch.nn.functional.pixel_shuffle()

    重新排列张量中的元素, 从形状 torch.nn.functional - 图99) 到 ).

    请参见 .

    参数:

    • input (Tensor) – 输入张量
    • upscale_factor () – 提高空间解析度的参数

    例子:

    1. >>> input = torch.randn(1, 9, 4, 4)
    2. >>> output = torch.nn.functional.pixel_shuffle(input, 3)
    3. >>> print(output.size())
    4. torch.Size([1, 1, 12, 12])

    pad

    1. torch.nn.functional.pad(input, pad, mode='constant', value=0)

    用于填充张量.

    1. Pading size:

    要填充的维度数为 torch.nn.functional - 图101%7D%7D%7B2%7D%5Cright%5Crfloor)填充的维度从最后一个维度开始向前移动. 例如, 填充输入tensor的最后一个维度, 所以 pad 形如 (padLeft, padRight); 填充最后 2 个维度, 使用 (padLeft, padRight, padTop, padBottom); 填充最后 3 个维度, 使用 (padLeft, padRight, padTop, padBottom, padFront, padBack).

    1. Padding mode:

    请参见 , torch.nn.ReflectionPad2d, and 有关每个填充模式如何工作的具体示例. Constant padding 已经实现于任意维度. 复制填充用于填充5D输入张量的最后3个维度, 或4D输入张量的最后2个维度, 或3D输入张量的最后一个维度. 反射填充仅用于填充4D输入张量的最后两个维度, 或者3D输入张量的最后一个维度.

    注意

    当使用CUDA后端时, 此操作可能会导致不确定的向后行为, 并且不容易关闭. 请参阅关于Reproducibility的注释.

    参数:

    • input () – N维张量
    • pad (tuple) – m个元素的元组, 其中 输入维数,且m是偶数
    • mode – ‘constant’, ‘reflect’ or ‘replicate’. 默认值: ‘constant’
    • value – 用“常量”填充来填充值. 默认值: 0

    例子:

    1. >>> t4d = torch.empty(3, 3, 4, 2)
    2. >>> p1d = (1, 1) # pad last dim by 1 on each side
    3. >>> out = F.pad(t4d, p1d, "constant", 0) # effectively zero padding
    4. >>> print(out.data.size())
    5. torch.Size([3, 3, 4, 4])
    6. >>> p2d = (1, 1, 2, 2) # pad last dim by (1, 1) and 2nd to last by (2, 2)
    7. >>> out = F.pad(t4d, p2d, "constant", 0)
    8. >>> print(out.data.size())
    9. torch.Size([3, 3, 8, 4])
    10. >>> t4d = torch.empty(3, 3, 4, 2)
    11. >>> p3d = (0, 1, 2, 1, 3, 3) # pad by (0, 1), (2, 1), and (3, 3)
    12. >>> out = F.pad(t4d, p3d, "constant", 0)
    13. >>> print(out.data.size())
    14. torch.Size([3, 9, 7, 3])

    interpolate

    1. torch.nn.functional.interpolate(input, size=None, scale_factor=None, mode='nearest', align_corners=None)

    向下/向上采样输入到给定的size或给定的scale_factor

    mode 指定插值的算法.

    目前支持时间, 空间和体积上采样, 即预期输入为三维、四维或五维形状.

    输入维度形式: mini-batch x channels x [可选的 depth] x [可选的 height] x width.

    可用于上采样的模式是: nearest, linear (仅三维), bilinear (仅四维), trilinear (仅五维), area

    参数:

    • input (Tensor) – 输入张量
    • size ( or Tuple__[int] or Tuple__[, int] or Tuple__[, int, ]) – 输出尺寸.
    • scale_factor (float or Tuple__[]) – 空间大小的乘数. 如果是元组, 则必须匹配输入大小.
    • mode (string) – 上采样算法: ‘nearest’ | ‘linear’ | ‘bilinear’ | ‘trilinear’ | ‘area’. 默认值: ‘nearest’
    • align_corners (bool, 可选的) – 如果为True, 则输入和输出张量的角像素对齐, 从而保留这些像素的值. 仅在 modelinear, bilinear, 或者 trilinear 时生效. 默认值: False

    警告

    align_corners = True时, 线性插值模式(linear, bilinear, and trilinear)不会按比例对齐输出和输入像素, 因此输出值可能取决于输入大小. 这是0.3.1版之前这些模式的默认行为.此后, 默认行为为align_corners = False. 有关这如何影响输出的具体示例, 请参见上例.

    注意

    当使用CUDA后端时, 此操作可能会导致不确定的向后行为, 并且不容易关闭. 请参阅关于的注释.

    upsample

    1. torch.nn.functional.upsample(input, size=None, scale_factor=None, mode='nearest', align_corners=None)

    将输入采样到给定size或给定的scale_factor

    警告

    此函数已被弃用, 取而代之的是 . 等价于 nn.functional.interpolate(...).

    注意

    当使用CUDA后端时, 此操作可能会导致不确定的向后行为, 并且不容易关闭. 请参阅关于Reproducibility的注释.

    用于上采样的算法由 mode 确定.

    目前支持时间, 空间和体积上采样, 即预期输入为三维、四维或五维形状.

    输入维度形式: mini-batch x channels x [可选的 depth] x [可选的 height] x width.

    可用于上采样的模式是: nearest, linear (仅三维), bilinear (仅四维), trilinear (仅五维), area

    参数:

    • input () – 输入张量
    • size (int or Tuple__[] or Tuple__[int, ] or Tuple__[int, , int]) – 输出尺寸.
    • scale_factor () – 空间大小的乘数. 必须是整数.
    • mode (string) – 上采样算法: ‘nearest’ | ‘linear’| ‘bilinear’ | ‘trilinear’. 默认值: ‘nearest’
    • align_corners (bool, 可选的) – 如果为True, 则输入和输出张量的角像素对齐, 从而保留这些像素的值. 仅在 modelinear, bilinear, 或者 trilinear 时生效. 默认值: False

    警告

    align_corners = True时, 线性插值模式(linear, bilinear, and trilinear)不会按比例对齐输出和输入像素, 因此输出值可能取决于输入大小. 这是0.3.1版之前这些模式的默认行为.此后, 默认行为为align_corners = False. 有关这如何影响输出的具体示例, 请参见

    upsample_nearest

    1. torch.nn.functional.upsample_nearest(input, size=None, scale_factor=None)

    使用最近邻的像素值对输入进行上采样.

    警告

    不推荐使用此函数, 而使用 . 等价于h nn.functional.interpolate(..., mode='nearest').

    目前支持空间和体积上采样 (即 inputs 是 4 或者 5 维的).

    参数:

    • input (Tensor) – 输入
    • size ( or Tuple__[int, ] or Tuple__[int, , int]) – 输出空间大小.
    • scale_factor () – 空间大小乘法器。必须是整数。

    注意

    当使用CUDA后端时, 此操作可能会导致不确定的向后行为, 并且不容易关闭. 请参阅关于Reproducibility的注释.

    upsample_bilinear

    1. torch.nn.functional.upsample_bilinear(input, size=None, scale_factor=None)

    使用双线性上采样对输入进行上采样.

    警告

    不推荐使用此函数, 而使用 torch.nn.functional.interpolate(). 等价于 nn.functional.interpolate(..., mode='bilinear', align_corners=True).

    期望输入是空间的 (四维). 用 upsample_trilinear 对体积 (五维) 输入.

    参数:

    • input () – 输入
    • size (int or Tuple__[, int] or Tuple__[, int, ]) – 输出空间大小.
    • scale_factor (int) – 空间大小乘法器。

    注意

    当使用CUDA后端时, 此操作可能会导致不确定的向后行为, 并且不容易关闭. 请参阅关于的注释.

    grid_sample

    1. torch.nn.functional.grid_sample(input, grid, mode='bilinear', padding_mode='zeros')

    给定input 和流场 grid, 使用 inputgrid 中的像素位置计算output.

    目前, 仅支持 spatial (四维) 和 volumetric (五维) input.

    在 spatial (4四维) 的情况下, 对于 input 形如 torch.nn.functional - 图103) 和 grid 形如 ), 输出的形状为 torch.nn.functional - 图105).

    对于每个输出位置 output[n, :, h, w], 大小为2的向量 grid[n, h, w] 指定 input 的像素位置 xy, 用于插值输出值 output[n, :, h, w]. 对于 5D 的 inputs, grid[n, d, h, w] 指定 x, y, z 像素位置用于插值 output[n, :, d, h, w]. mode 参数指定 nearest or bilinear 插值方法.

    grid 大多数值应该处于 [-1, 1]. 这是因为像素位置由input 空间维度标准化.例如, 值 x = -1, y = -1input 的左上角, 值 x = 1, y = 1input 的右下角.

    如果 grid[-1, 1] 之外的值, 那些坐标将由 padding_mode 定义. 选项如下

    • padding_mode="zeros": 用 0 代替边界外的值,
    • padding_mode="border": 用 border 值代替,
    • padding_mode="reflection": 对于超出边界的值, 用反射的值. 对于距离边界较远的位置, 它会一直被反射, 直到到达边界, 例如(归一化)像素位置x = -3.5-1反射, 变成x' = 2.5, 然后被边界1反射, 变成x'' = -0.5.

    注意

    该功能常用于空间变换网络的构建.

    注意

    当使用CUDA后端时, 此操作可能会导致不确定的向后行为, 并且不容易关闭. 请参阅关于的注释.

    参数:

    • input (Tensor) – 形状为 )的输入 (四维情形) 或形状为torch.nn.functional - 图107) 的输入(五维情形)
    • grid () – 形状为) 的流场(四维情形) 或者 torch.nn.functional - 图109) (五维情形)
    • mode (str) – 插值模式计算输出值’双线性’ | ‘最接近’. 默认值: ‘bilinear’
    • padding_mode () – 外部网格值’ zeros ‘ | ‘ border ‘ | ‘ reflection ‘的填充模式. 默认值: ‘zeros’

    返回值:

    • 输出张量

    返回类型:

    affine_grid

    1. torch.nn.functional.affine_grid(theta, size)

    在给定一批仿射矩阵theta的情况下生成二维流场. 通常与grid_sample()一起使用以实现空间变换器网络.

    参数:

    • theta () – 输入的仿射矩阵 ()
    • size (torch.Size) – 目标图像输出的大小 (torch.nn.functional - 图111) 例子: torch.Size((32, 3, 24, 24))

    返回值:

    • 输出tensor, 形状为 ()

    返回类型:

    数据并行函数 (multi-GPU, distributed)

    1. torch.nn.parallel.data_parallel(module, inputs, device_ids=None, output_device=None, dim=0, module_kwargs=None)

    在设备id中给定的gpu上并行计算模块(输入).

    这是DataParallel模块的函数版本.

    • module (Module) – 要并行评估的模块
    • inputs (tensor) – 模块的输入
    • device_ids (list of python:int or ) – 用于复制模块的GPU id
    • output_device (list of python:int or torch.device) – 输出的GPU位置使用 -1表示CPU. (默认值: device_ids[0])

    返回值:

    • 一个张量, 包含位于输出设备上的模块(输入)的结果