1639-刘同学-算法方向-具体方向待定-就业:是 扫二维码继续学习 二维码时效为半小时

(0评价)
价格: 免费

二维以上的tensor matul

matmu完成二维以上的矩阵相乘运算,但事实上,我们实际运算的也是最后两个维度的数值

近似值

floor()取小

ceil()取大

round()四舍五入

trunc()取整数

frac()取小数

裁剪——clamp

打印参数w的梯度:w.grad.norm(2)

torch里面的clamp类似于numpy里面的climp把数值范围进行裁剪 

 

[展开全文]

数学运算

(1)加减乘除

(2)矩阵相乘 matmul 是按照矩阵的方式相乘

·Torch.mm(只适用于二维矩阵,不建议使用)

·Torch.matmul

·@

一个案例

 

[展开全文]

stack和cat的区别

cat在指定维度上可以值不同,但是stack在指定维度上的值必须相同

 

[展开全文]

从最小维度开始匹配,我们默认越高维度越相似,而小维度上各有各的不同

[32, 32]给每行每列加一个base基底;

[3, 1, 1]相等于是给每个通道都加个值;

[1, 1, 1, 1]像素点增加了一个值

[展开全文]

why broadcasting

(1)本身有现实意义;

(2)可以节省内存消耗

什么情况下需要将broadcasting?

match from last dim!

·如果当前的dim=1,扩展相同的维度

·如果其他地方没有维度,可以添加这一个模块,然后扩展成相同维度

·否则,则不能进行传播

 

[展开全文]

broadingcasting

(1)expand

(2)without copying data

key idea

[展开全文]

事件:样本点的合集

事件运算:

包含,等价,对立(逆事件)

AUB, A,B事件的并

A∩B=AB,A,B事件的交集

AB=空集, A∪B=A+B 称为和

A-B=AB(逆)

交换律A∪B=B∪A, AB=BA

结合律(A∪B)∪C=A∪(B∪C),ABC=A(BC)

分配律(A∪B)∩C=AC ∩ BC

(A∩B)∪C=(A∪C)∩(B∪C)

德摩根定理:分开反号

[展开全文]
1553_N_GX · 2021-05-27 · 自由式学习 0

repeat接口

repeat传参的参数是拷贝的次数

转置操作

 

[展开全文]

Expand/repeat

Expand——broadcasting仅仅是把数据进行了传播,节约内存

仅仅局限于从1开始扩展,如果是从3拓展的话,是不可行的,会报错

Repeat——实实在在的数据拷贝

 

[展开全文]

squeeze、unsqueeze

for example

 

[展开全文]

数据的存储、维度顺序非常重要,需要时刻谨记

 

[展开全文]

4、rand、rand_like、randint

rand随机生成在[0, 1]的数值

rand_like是先把rand生成的数组读取出来再喂给rand函数

randint需要给出最大值、最小值和shape

 

[展开全文]

创建tensor

(1)从numpy进行导入

(2)从list里面导入

小写的tensor括号里接收的是现有数据,而大写Terson、FloatTensor里面接受的是形状,也可以接受现成的数据,括号里用中括号时表示现成的数据,括号时输入的形状

 

[展开全文]

Dim1

一般会用在bias、线性层的输入

Dim2

一般用在batch,当输入多张图片时,第一个数字是图片的个数,第二个是打平图片之后的一维点数

Dim3

适合RNN的文字处理

Dim4

适合CNN

第一个数字是图片的个数,第二个数字是图片的通道,通道为1是灰色图像,通道为3的是菜色图像,后两位数字28*28是minis数据集的长和宽

 

[展开全文]

pytorch中的数据类型

没有对string的支持内键

how to denote string

(1)One-hot并不体现语义

(2)Embedding—word2vec

核实数据类型

数据类型

(1)标量

 

 

[展开全文]

回归问题实战

(1)先计算总损失值

(2)然后计算w和b的偏导,进而更新梯度值

[展开全文]

需要四步:
(1)load data

(2)build model

(3)train

(4)test

 

[展开全文]

Non-linear Factor

加入激活函数之后

pred既有线性表达能力,还有非线性的表达能力

 

[展开全文]