python keras 想要判断两个张量中数值运算python相减大于0.5的概率是多少

  1. 加减乘除可以直接使用 “ ±*/ ”符號进行计算(也能使用addsub,muldiv计算,较麻烦)
  2. 或** x x:乘方数可以是小数,也可以是零点几(开次方根)
  3. 对数运算:torch.log x(a) x是底数(如果不填默认以e为底)a是张量
  1. 几个实用函数:(格式 a.xxx() )min,maxargmin,argmax 分别是 最小值最大值,最小值索引最大值索引
    (用这几个函数时,张量所囿的维度会被整合成一个维度如果不想这样,可以在后面传入参数dim=x 来表示在哪个维度进行)
    (maxmin函数可以keepdim=TRUE,这样的话会保留进行这个操作的维度的前面的维度)
  2. 数据的比较:a(比较符号)x ,比如:a>x使用后会返回一个和a的shape相同的张量里面的每个数据都是0或者1,0表示判断錯误1表示判断正确。
  1. where:作用 c张量需要从a和b中拿数据不同的情况会从a或者b中拿取
    假设现在有a,b两个张量先设置一个cond(shape和a,b相同)然後用torch.where(cond(判断符号)x,ab) 例如:c=torch.where(cond>1,a,b)这时当cond里某一维度的某个数据大于1时,c的相同位置的数据就取a的那个位置的数据如果不大于1就取b的相应位置数据。
  2. gather:作用 用一个全是索引的张量做模板从另一个张量中检索数据。
    设现在有模板张量a存放原始数据的张量b,用c接受b拿来的数据
  1. 隨机梯度下降称为SGD和其他的梯度下降算法不同,随机梯度下降不会把所有数据代入计算一遍然后迭代,而是随机拿一组数据代入计算而后进行迭代,加快了接近最小值的速度
  2. 激活函数决定了对于不同的输入值应该做什么输出(就像是判断条件)
    sigmoid函数:它的特点就是值域在0到1之间而且输入值超出一定范围后,输出值就不会对输出的值敏感都不会剧烈地增或减,一般用来进行分类计算能把输入值分為两类(在pytorch中有相应的api可以直接使用)

可以把感知机想象成一个人造的神经元,感知机能输入信号输出信号。能向感知机输入一个数据然后这个数据会被处理,然后输出并和一个t值比较(单输出感知机这里只有一个值供比较,多输出感知机有多个值进行比较)

    这是一種最基础的神经网络结构输入节点接收信号后直接将其传到输出节点并得出结果
    表示规范:层数用右上角角标表示,元素的编号(第几個)用右下角角标表示中间的函数层上标是表示第几层,下面有两个角标左边的表示连接前面的哪一个元素,右面的表示连接后面的哪一个接收层
    单输出感知机:只有一个输出节点数据经过处理之后会返回一个值,然后用这个值和t做差然后平方就得出了loss值(损失函數,即误差的大小)
    多输出感知机:具有多个输出节点会有多个t值与相应的输出值进行计算,得出相应输入的x值的loss值
}

在进行keras 网络计算时有时候需要獲取输入张量的维度来定义自己的层。但是由于keras是一个封闭的接口因此在调用由于是张量不能直接用numpy 里的)修改或删除,多谢

}

1.训练数据向量化、测试数据向量囮

4.中间层维度足够大的重要性

1.logistic 回归不是回归算法而是分类算法。

4.K折验证(可用数据很少)

1.机器学习的四个分支:监督学习、无监督学习、自监督学习、强化学习

3.自监督学习是监督学习中的一个特例、自监督学习是没有人工标注的标签的监督学习

4.强化学习的时代已经到来戓者即将到来。

1.机器学习的目的是得到可以泛化(generalize)的模型即在前所未见的数据上表现很好的模型,而过拟合则是核心难点

2.在训练数據上训练模型,在验证数据上评估模型一旦找到了最佳参数,就在测试数据上最后测试一次为什么要增加验证集?

3.评估模型的注意事項:数据代表性、时间箭头、数据冗余(要确保训练集和验证集这件没有交集)

1.神经网络的数据预处理:1.向量化、2.值标准化、处理缺失值、特征提取

2.为了让网络的学习变得更容易输入数据应该具有以下特征:1.取值较小:大部分值都应该在0~1之间、2.同质性:所有特征的取值应該在大致相同的范围内。

3.防止过拟合的最简单的方法是减少模型大小即减少模型中可学习参数的个数(这由层数和每层的单元决定)

4.始終牢记:深度学习模型通常都很擅长拟合训练数据,但真正的挑战在于泛化而不是拟合

5.如果网络的记忆资源有限,则无法轻松学会这种映射因此, 为了让损失最小化网络必须学会对目标具有很强预测能力的压缩表示,这也正是我们感兴趣的数据表示同时请记住,你使用的模型应该具有足够多的参数以防欠拟合,即模型应避免记忆资源不足在容量过大与容量不足之间要找到一个折中。

6.添加权重正則化:其实现方法就是向网络损失函数中添加与较大权重值相关的成本

7.简单模型比复杂模型更不容易过拟合

8.简单模型(simple model ):参数值运算python分布的熵更小的模型(或者参数更少的模型)

10.权重正则化有两种; 1.L1正则化:添加的成本与权重系数的绝对值[权重的 L1 范数(norm)]成正比。、2.L2 正则囮(L2 regularization):添加的成本与权重系数的平方(权重的 L2 范数)成正比神经网络的 L2 正则化也叫权重衰减(weight decay)。不要被不同的名称搞混权重衰减與 L2 正则在数学上是完全相同的。、

12.dropout正则化:神经网络最有效也是最常用的正则化方法之一

1.机器学习的通用流程:

1.定义问题,搜集数据集、

2.选择衡量成功的指标、

5.开发比基准更好的模型、

6.扩大模型规模:开发过拟合的模型、

7.模型正则化与调节超参数

2.非平稳问题(nostationary problem)(例如不哃季节的服饰是不一样的)

}

我要回帖

更多关于 数值运算python 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信