- 加减乘除可以直接使用 “ ±*/ ”符號进行计算(也能使用addsub,muldiv计算,较麻烦) 或** x x:乘方数可以是小数,也可以是零点几(开次方根)
- 对数运算:torch.log x(a) x是底数(如果不填默认以e为底)a是张量
- 几个实用函数:(格式 a.xxx() )min,maxargmin,argmax 分别是 最小值最大值,最小值索引最大值索引
(用这几个函数时,张量所囿的维度会被整合成一个维度如果不想这样,可以在后面传入参数dim=x 来表示在哪个维度进行)
(maxmin函数可以keepdim=TRUE,这样的话会保留进行这个操作的维度的前面的维度)
- 数据的比较:a(比较符号)x ,比如:a>x使用后会返回一个和a的shape相同的张量里面的每个数据都是0或者1,0表示判断錯误1表示判断正确。
- where:作用 c张量需要从a和b中拿数据不同的情况会从a或者b中拿取
假设现在有a,b两个张量先设置一个cond(shape和a,b相同)然後用torch.where(cond(判断符号)x,ab) 例如:c=torch.where(cond>1,a,b)这时当cond里某一维度的某个数据大于1时,c的相同位置的数据就取a的那个位置的数据如果不大于1就取b的相应位置数据。 - gather:作用 用一个全是索引的张量做模板从另一个张量中检索数据。
设现在有模板张量a存放原始数据的张量b,用c接受b拿来的数据
- 隨机梯度下降称为SGD和其他的梯度下降算法不同,随机梯度下降不会把所有数据代入计算一遍然后迭代,而是随机拿一组数据代入计算而后进行迭代,加快了接近最小值的速度 激活函数决定了对于不同的输入值应该做什么输出(就像是判断条件)
sigmoid函数:它的特点就是值域在0到1之间而且输入值超出一定范围后,输出值就不会对输出的值敏感都不会剧烈地增或减,一般用来进行分类计算能把输入值分為两类(在pytorch中有相应的api可以直接使用)
可以把感知机想象成一个人造的神经元,感知机能输入信号输出信号。能向感知机输入一个数据然后这个数据会被处理,然后输出并和一个t值比较(单输出感知机这里只有一个值供比较,多输出感知机有多个值进行比较)
-
这是一種最基础的神经网络结构输入节点接收信号后直接将其传到输出节点并得出结果
表示规范:层数用右上角角标表示,元素的编号(第几個)用右下角角标表示中间的函数层上标是表示第几层,下面有两个角标左边的表示连接前面的哪一个元素,右面的表示连接后面的哪一个接收层
单输出感知机:只有一个输出节点数据经过处理之后会返回一个值,然后用这个值和t做差然后平方就得出了loss值(损失函數,即误差的大小)
多输出感知机:具有多个输出节点会有多个t值与相应的输出值进行计算,得出相应输入的x值的loss值