一、torch.add()介紹
torch.add是PyTorch中重要的數(shù)學(xué)函數(shù)之一,該函數(shù)用于將兩個(gè)張量的元素相加。使用add可以用于在模型的正向傳播過(guò)程中將兩個(gè)數(shù)的值相加,也可以用于在訓(xùn)練過(guò)程中實(shí)現(xiàn)復(fù)雜的優(yōu)化算法。
add函數(shù)具有幾個(gè)參數(shù):input,other,alpha,out。其中,input和other都是兩個(gè)張量,需要進(jìn)行相加處理,alpha是一個(gè)系數(shù),可以給input和other分別乘以不同的值。out是一個(gè)輸出張量,可以將計(jì)算結(jié)果輸出到該張量中,以避免額外的內(nèi)存分配。
import torch
t1 = torch.randn((2, 3), dtype=torch.float32)
t2 = torch.randn((2, 3), dtype=torch.float32)
t3 = torch.add(t1, t2)
print(t3)
二、torch.add()的操作
1. 對(duì)標(biāo)量的操作
對(duì)兩個(gè)標(biāo)量進(jìn)行相加。當(dāng)輸入?yún)?shù)是標(biāo)量時(shí),add函數(shù)會(huì)將該值分別加到輸入張量的每一個(gè)元素中。
import torch
t1 = torch.randn((2, 3), dtype=torch.float32)
s1 = 2.5
t2 = torch.add(t1, s1)
print(t2)
2. 對(duì)兩個(gè)向量的操作
對(duì)兩個(gè)長(zhǎng)度相等的向量進(jìn)行相加。add函數(shù)對(duì)于兩個(gè)長(zhǎng)度相等的向量的操作,即將它們的對(duì)位元素相加,同時(shí)輸出一個(gè)新的向量。
import torch
v1 = torch.randn((3,), dtype=torch.float32)
v2 = torch.randn((3,), dtype=torch.float32)
v3 = torch.add(v1, v2)
print(v3)
3. 對(duì)兩個(gè)矩陣的操作
對(duì)兩個(gè)矩陣進(jìn)行相加。當(dāng)兩個(gè)矩陣的維數(shù)相等時(shí),add函數(shù)會(huì)將兩個(gè)矩陣對(duì)應(yīng)的元素相加,輸出一個(gè)新的矩陣。
import torch
m1 = torch.randn((2, 3), dtype=torch.float32)
m2 = torch.randn((2, 3), dtype=torch.float32)
m3 = torch.add(m1, m2)
print(m3)
三、torch.add()的應(yīng)用
1. 用add實(shí)現(xiàn)ReLU函數(shù)
ReLU函數(shù)是一種常用的激活函數(shù),可以用于神經(jīng)網(wǎng)絡(luò)中的隱藏層。ReLU函數(shù)的公式為y=max(0,x),即當(dāng)輸入x小于0時(shí),輸出為0;當(dāng)輸入x大于等于0時(shí),輸出為x。
使用torch.add函數(shù),可以很容易的實(shí)現(xiàn)ReLU函數(shù)。具體實(shí)現(xiàn)方式是將輸入張量中的負(fù)數(shù)部分變?yōu)?,其余元素不變:
import torch
def relu(x):
return torch.add(x, torch.zeros_like(x).fill_(0.0).clamp_min_(x))
t1 = torch.randn((2, 3), dtype=torch.float32)
t2 = relu(t1)
print(t1, '\n', t2)
2. 實(shí)現(xiàn)自適應(yīng)梯度裁剪
自適應(yīng)梯度裁剪是一種常用的技術(shù),可以幫助神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過(guò)程中更好地收斂。自適應(yīng)梯度裁剪需要計(jì)算每個(gè)參數(shù)的梯度范數(shù),然后根據(jù)每個(gè)梯度的范數(shù)進(jìn)行相應(yīng)的裁剪,以幫助網(wǎng)絡(luò)收斂。
使用torch.add函數(shù)可以很容易的實(shí)現(xiàn)自適應(yīng)梯度裁剪。具體思路是計(jì)算梯度范數(shù),比較梯度范數(shù)與設(shè)定的閾值大小,然后按比例將梯度向量進(jìn)行縮放。
import torch
def adaptive_grad_clip(grad, threshold):
norm = torch.norm(grad)
if norm > threshold:
grad = torch.div(grad, norm / threshold)
return grad
t1 = torch.randn((2, 3), dtype=torch.float32, requires_grad=True)
t2 = t1.mean()
t2.backward()
grad = t1.grad
grad_clip = adaptive_grad_clip(grad, 0.05)
t1.grad = grad_clip
print(t1.grad)
四、結(jié)論
torch.add函數(shù)在PyTorch中是一個(gè)非常重要的數(shù)學(xué)函數(shù),在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程中有著廣泛的應(yīng)用。本文對(duì)torch.add函數(shù)在不同維度的操作進(jìn)行了詳細(xì)的介紹,同時(shí)給出了該函數(shù)在實(shí)際場(chǎng)景中的兩個(gè)應(yīng)用案例。在實(shí)際的開(kāi)發(fā)過(guò)程中,可以更好的理解torch.add函數(shù)的使用方式,進(jìn)而更高效地完成各類(lèi)深度學(xué)習(xí)模型的編寫(xiě)。