帝王谷资源网 Design By www.wdxyy.com

由于python内部的变量其实都是reference,而Tensorflow实现的时候也没有意义去判断输出是否是同一变量名,从而判定是否要新建一个Tensor用于输出。Tensorflow为了满足所有需求,定义了两个不同的函数:tf.add和tf.assign_add。从名字即可看出区别,累加应该使用tf.assign_add。同理的还有tf.assign_sub和tf.assign。

具体地,笔者需要一个iteration counter类似的变量,即每次使用一个batch更新参数之后都使得该变量加一,进而控制learning rate等参数来调节学习过程。

最初的实现如下:

a = tf.Variable(tf.zeros(1))
a = tf.add(a,tf.ones(1))

sess = tf.Session()
sess.run(tf.global_variable_initializer())
for i in range(1000):
  print(sess.run(a))

那因为第一行代码输出的a和第二行代码输出的a,虽然变量名相同,但是实质指向的变量以及空间都不同,每次输出的都是1。

更改后的代码则是如下:

a = tf.Variable(tf.zeros(1))
a = tf.assign_add(a,tf.ones(1))

sess = tf.Session()
sess.run(tf.global_variable_initializer())
for i in range(1000):
  print(sess.run(a))

以上这篇Tensorflow累加的实现案例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。

标签:
Tensorflow,累加

帝王谷资源网 Design By www.wdxyy.com
广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
帝王谷资源网 Design By www.wdxyy.com

RTX 5090要首发 性能要翻倍!三星展示GDDR7显存

三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。

首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。

据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。