勾引 大爷 PyTorch For Dummies|Tensor.detach()的用法
在PyTorch中勾引 大爷,张量是揣测打算图(computation graph)的中枢,它允许进行自动微分(automatic differentiation)。detach()模范用于将一个张量从揣测打算图中移除,以住手对该张量进行梯度揣测打算。这在你需要使用张量的值而不思进行梯度揣测打算,能够当你思通过不追踪不消要的梯度来精辟内存时十分有效。
模范界说
Tensor.detach() -> Tensor
detach() 模范复返一个新的张量,该张量与原始张量分享换取的存储空间,但莫得梯度历史。这意味着对这个永别的张量进行的任何操作王人不会被包含在揣测打算图中,因此不会对原始张量的梯度揣测打作为念出孝敬。尽管仍是永别,但数据仍然位于换取的内存位置,这意味着除非进行克隆或将张量传输到另一个缔造,不然对其中一个的修改会影响另一个。
示例
(1)基本用法
import torch
# Create a tensor with requires_grad=True
a = torch.tensor([2.0], requires_grad=True)
# Perform some operation
b = a * 2
# Detach b from the computation graph
detached_b = b.detach()
print(f"b requires_grad: {b.requires_grad}")
print(f"detached_b requires_grad: {detached_b.requires_grad}")
# Changes to detached_b do not affect b's gradient computation
detached_b *= 3 # this operation won't be tracked
# However, since it's the same memory, the value changes:
print(f"Value of b after detaching and modifying: {b}")
print(f"Value of detached_b: {detached_b}")
输出:
b requires_grad: True
detached_b requires_grad: False
Value of b after detaching and modifying: tensor([12.], grad_fn=<MulBackward0>)
Value of detached_b: tensor([12.])
(2)梯度住手
要是你但愿在你的收罗的某个点住手梯度(举例,关于你不思更新的收罗部分),`detach()`不错很有效。
import torch.nn as nn
import torch.optim as optim
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.fc1 = nn.Linear(10, 5)
self.fc2 = nn.Linear(5, 2)
def forward(self, x):
x = torch.relu(self.fc1(x))
# Detach here to stop gradients from flowing back through fc1
x = self.fc2(x.detach())
return x
model = Net()
optimizer = optim.SGD(model.parameters(), lr=0.01)
# Training loop
# ... (assuming some data input and loss calculation)
loss.backward()
optimizer.step() # Only fc2 parameters will be updated
其他详确事项
克隆:要是你需要在修改永别的张量时不影响原始张量,请研讨在永别后使用 clone() 模范。
detached_and_cloned = b.detach().clone()
反向传播:记着,`detach()`并不住手反向传播;它仅仅将张量从现时揣测打算图中移除。要是你思要的确梗阻梯度流动,请研讨使用`torch.no_grad()`或`requires_grad_(False)`。
磋议常识勾引 大爷,柔润你我。