首页>>人工智能->使用PyTorch构建神经网络以及反向传播计算

使用PyTorch构建神经网络以及反向传播计算

时间:2023-11-29 本站 点击:2

构建神经网络

在训练神经网络时,常用的算法是反向传播。该算法中,参数根据损失函数相对应的给定的参数的梯度进行调整。为了计算这些梯度,使用PyTorch的内置函数torch.autograd。它支持任何网络的梯度计算。 通过构建一层神经网络来进行细致的分析;

importtorchx=torch.ones(5)#inputtensory=torch.zeros(3)#expectedoutputw=torch.randn(5,3,requires_grad=True)b=torch.randn(3,requires_grad=True)z=torch.matmul(x,w)+bloss=torch.nn.functional.binary_cross_entropy_with_logits(z,y)

通过PyTorch定义具有输入x,参数w,b以及损失函数,进而构建一层神经网络。

张量,函数,计算图

print('Gradientfunctionforz=',z.grad_fn)print('Gradientfunctionforloss=',loss.grad_fn)

输出结果如下;

我们通过张量来构建计算图函数本质是Function的对象。该对象定义了前向计算函数,在反向传播中计算导数。将反向传播函数存储在grad_fn中。

参考PyTorch文档https://pytorch.org 在整个网络中,w,b是需要优化的参数。为了计算这些参数的损失函数的梯度,设置了requires_grad这些张量的属性。

计算梯度

梯度,本意是一个向量,表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大。 为了优化神经网络参数的权重,需要计算损失函数关于参数的导数,通过loss.backward() 进行计算。

loss.backward()print(w.grad)print(b.grad)

输出结果如下:

我们只能获取grad计算图的叶子节点的requeires_grad属性,这些属性设置为True。backward只能在图中使用一次梯度计算,如果需要backward在同一个图多次调用,我们需要传递retain_graph-True和backward调用

更多图计算

从概念上讲,autograd 在由Function 对象组成的有向无环图 (DAG) 中保存数据(张量)和所有已执行操作(以及生成的新张量)的记录 。在这个 DAG 中,叶子是输入张量,根是输出张量。通过从根到叶跟踪此图,可以使用链式法则自动计算梯度。 在前向传递过程,autograd需要计算结果张量,在DAG中保持梯度函数 在DAG中调用abckward() 需要计算各自的梯度,将其累计在各自的grad属性中,使用链式法则,传递到叶张量。

DAG是动态的,每次调用backward()函数,autograd开始填充新图形,如果需要可以在每次迭代时进行操作。

梯度以及雅可比积

梯度,张量在任意常数c方向上的梯度:n阶张量的梯度是n+1张量场。 雅可比积是表示两个向量的所有可能偏导数的矩阵。它是一个向量相对于另一个向量的梯度,Autograd可以对张量进行微分,从一个变量开始执行反向传播。在深度学习中,这个变量通常保存成本函数的值,自动计算所有反向传播梯度

计算雅可比乘积而不是计算雅可比矩阵本身;

计算成绩如下所示

inp=torch.eye(5,requires_grad=True)out=(inp+1).pow(2)out.backward(torch.ones_like(inp),retain_graph=True)print("Firstcall\n",inp.grad)out.backward(torch.ones_like(inp),retain_graph=True)print("\nSecondcall\n",inp.grad)inp.grad.zero_()out.backward(torch.ones_like(inp),retain_graph=True)print("\nCallafterzeroinggradients\n",inp.grad)

当backward使用相同的参数进行第二次调用时,梯度的值是不同的。发生这种情况是因为在进行反向传播时,PyTorch会积累梯度,即将梯度的值添加到grad图计算中所有节点的属性中。如果要计算适当的梯度,需要将grad归零。

结语

关于禁用渐变跟踪问题上,有时我们不需要跟踪计算所有计算历史,将神经网络某些参数固定是微调神经网络常用方法,而且在仅向前传递时加快计算速度。 在图计算问题上,autograd 在由Function 对象组成的有向无环图 (DAG) 中保存数据(张量)和所有已执行操作(以及生成的新张量)的记录 。在这个 DAG 中,叶子是输入张量,根是输出张量。通过从根到叶跟踪此图,您可以使用链式法则自动计算梯度。前向传递,autograd计算结果张量,在dag中维护操作的梯度函数,在反向传递中,计算每个梯度.grad_fn,将他们积累到.grad属性中,使用链式法则传播到叶张量。下一节将从优化模型参数角度进行学习

参考开发文档:https://pytorch.org/tutorials/beginner/basics/buildmodel_tutorial.html


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/1101.html