19.Eager模式

Eager模式每进行一步输入就可以得出一步结果,我们下面直接用代码举例子

首先我们导入库,查看此时是否是eager模式,tensorflow2.0及以上的版本,默认开启eager模式

19.Eager模式

19.Eager模式

我们之前的项目均开启了Eager模式,下面介绍一个常见的张量操作

目录

1  计算获取张量

2  直接创建张量 tf.constant()

3  转换获取张量 tf.conver_to_tensor()

4  张量与python数据类型变量计算

5  张量与np.ndarray计算

6  直接转换张量

7  变量操作

7.1  创建变量 tf.Variable()

7.2  改变变量 assign()

7.3  增大与减小变量 assign_add()与assign_sub()

7.4  读取变量 read_value()

8  记录一次计算后梯度变化过程

8.1  记录变量

8.2  记录常量

8.3  记录多次计算后梯度变化过程


1  计算获取张量

我们现在定义一个x

19.Eager模式

19.Eager模式

19.Eager模式

然后令x乘x,之后复制给m

19.Eager模式

我们显示出来看一下

19.Eager模式

19.Eager模式

我们可以看到m的类型为tf.Tensor,Tensor是张量的意思,它有两个属性,shape与dtype,与np.ndarray很类似

上面这种操作就是eager模式的体现,由于我们之前使用的都是eager模式,所以我们没有感觉到缺失eager模式的不便捷

2  直接创建张量 tf.constant()

下面我们再建立一个张量,使用tf.constant方法

19.Eager模式

19.Eager模式

3  转换获取张量 tf.conver_to_tensor()

我们使用tf.conver_to_tensor()转换一个值获取张量

19.Eager模式

19.Eager模式

4  张量与python数据类型变量计算

在eager模式中,张量是可以直接与数值进行运算的,我们在卫星图像分类中使用过

19.Eager模式

此处的result就是一个张量,他并不是一个整形数据或浮点型数据,但是它依然可以与0.5进行比较

我们在这里再举个例子,使用刚刚创建的num

19.Eager模式

我们发现张量可以直接与整形数据进行取余运算

19.Eager模式

5  张量与np.ndarray计算

我们首先创建一个np.ndarray

19.Eager模式

19.Eager模式

我们使用刚刚创建的a与其相加(a是刚刚创建的张量对象)

19.Eager模式

发现也是可以相加的

19.Eager模式

6  直接转换张量

我们举两个例子,第一个我们直接使用刚刚的计算结果e,我现在要将其转变为list

19.Eager模式

19.Eager模式

我们再使用之前的num

19.Eager模式

19.Eager模式

7  变量操作

7.1  创建变量 tf.Variable()

我们使用tf.Variable()创建变量,刚刚使用tf.constant()创建的是常量

19.Eager模式

19.Eager模式

7.2  改变变量 assign()

我们使用assign()直接改变变量v

19.Eager模式

我们发现值变为了5

19.Eager模式

7.3  增大与减小变量 assign_add()与assign_sub()

我们先增大变量

19.Eager模式

发现现在值为7

19.Eager模式

之后再减小变量

19.Eager模式

发现现在值为4

19.Eager模式

7.4  读取变量 read_value()

19.Eager模式

我们发现使用read_value()读取变量后的结果为tensor

19.Eager模式

8  记录一次计算后梯度变化过程

只能记录类型为float的变量或常量

8.1  记录变量

我们求解loss对w的微分

19.Eager模式

19.Eager模式

19.Eager模式

  • w的平方对w微分为2w,w本身为1,是对的

8.2  记录常量

需要加入watch()

19.Eager模式

19.Eager模式

8.3  记录多次计算后梯度变化过程

现在我们求z对w的微分,这个就属于多次计算,我们要在GradientTape()加入参数persistent并将其置为True

19.Eager模式

19.Eager模式

上一篇:tensorflow2.0 tf.data 简单示例 以及实现mnist手写数字识别


下一篇:PyTorch下训练数据小文件转大文件读写(附有各种存储格式对比)