date: 2025-02-20 16:09:48
tags: pytorch
一,相关概念的核心
1.深度学习:机器学习的分支,以神经网络为基础,对数据的特征进行学习,深度学习需要的数量多,需要的计算性能强。
2.神经网络:模仿生物的神经系统实现的模型,能够对数据的特征进行学习。神经元是最小单元。 结构:t = f(Wx+b)
3.激活函数:把原来的数据进行变换。为什么使用非线性的激活函数,用非线性的激活函数能够增加模型的非线性分割能力。
激活函数的作用:增加非线性分割能力,增加模型的稳健性(让模型能够拟合不同的数据),缓解梯度消失, 加速模型收敛
二,pytorch的基本使用
1.张量的多种创
1 | import torch |
2.张量相关属性及方法
1 | import torch |
3.tensor的数据类型及修改方法
1 | import torch |
4.Tensor的计算及CUDA类型的tensor
import torch
import numpy as np
t1=torch.rand(5,3)
t2=torch.tensor(np.arange(15).reshape(5,3))
t3=torch.add(t1,t2) #相加操作
t1.add(t2)
t1.add_(t2) #对t1进行就地修改
t1.cpu() #cuda的tensor转化成cpu上的tensor
print(torch.cuda.is_available()) #判断当前电脑是否支持gpu训练
if torch.cuda.is_available() :
device =torch.device("cuda") #cuda device对象
y=torch.ones_like(t1,device=device) #创建一个在cuda上的tensor
t1=t1.to(device) #t1转为cuda的tensor
z=t1+y
print(z)
print(z.to("cpu",torch.double)) #.to方法也能设置类型
评论区
欢迎你留下宝贵的意见,昵称输入QQ号会显示QQ头像哦~