AI入门----tensor的基本运算 ╰+哭是因爲堅強的太久メ 2022-12-28 14:04 229阅读 0赞 tensor的运算可以分为两类:① 与普通数据的计算、② 与tensor的运算 tensor与普通数据的计算简单来说就是tensor中每一个数据都跟这个普通数据进行一次运算。而且运算符号与普通Python完全一致。值得注意的是,开根号运算等操作时,tensor中的元素一定要是float类型才行,不能是整数。 ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dhbmdlaWwwMDc_size_16_color_FFFFFF_t_70] 当然,也可以对tensor数据进行一些自身的运算:向上(下)取整、取小数、四舍五入等。 ![在这里插入图片描述][20201217155829377.png] tensor与tensor的运算涉及矩阵运算。这些运算特别适合在GPU中进行。矩阵的乘法有三种,推荐使用matmul()。关于矩阵运算的基本概念,请查阅线性代数相关内容。 ![在这里插入图片描述][20201217155847689.png] 数据统计: tensor张量中可能有很多数据,PyTorch提供了很多方法进行统计,比如min(), max(), mean(), prod(), sum(), argmin()和argmax()等。这里要着重介绍一下argmax()函数,argmax()函数就是给出原数据中最大那个元素的index。在神经网络的输出端会输出每一种可能性的概率,这时就要用argmax()计算最大可能性的那种可能,这就是神经网络的预测结果。 argmax()中可以指定参数,参数的意思是在指定维度上寻找最大值的index。 例如:print(a.argmax(0))表示在行上面寻找最大值的index,也就是保持列不动,tensor(\[1, 1, 1, 1\])。 ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dhbmdlaWwwMDc_size_16_color_FFFFFF_t_70 1] 张量与普通数据之间的比较、张量与张量之间的比较也可以用数学符号表示,这跟Python、C等语言上面是一致的。PyTorch还提供了torch.eq(a, b)这样的函数,这个方法与使用数学符号的方法结果是一样的。 ![在这里插入图片描述][watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dhbmdlaWwwMDc_size_16_color_FFFFFF_t_70 2] 至此我们完成了PyTorch的所有数据变化、运算以及统计相关内容。从下一章开始,我们将进入PyTorch的深度学习实战。 PS:上述实例来自于《PyTorch学这个就够了》,在这里表示感谢。 [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dhbmdlaWwwMDc_size_16_color_FFFFFF_t_70]: /images/20221120/3d2164c09715438eb9cda49f724b7811.png [20201217155829377.png]: /images/20221120/11bf410372d94e65a8d449807d4db4dc.png [20201217155847689.png]: /images/20221120/94a4f32b61a547f4862c03516d895221.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dhbmdlaWwwMDc_size_16_color_FFFFFF_t_70 1]: /images/20221120/4d8411d905fa48378f61c593aee4ffeb.png [watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3dhbmdlaWwwMDc_size_16_color_FFFFFF_t_70 2]: /images/20221120/0e161e03ef4a4222b5f26d174da791fb.png
还没有评论,来说两句吧...