时间:2022-08-12 10:01:52 | 栏目:Python代码 | 点击:次
把tensorflow 1.X中的代码,迁移到tensorflow2中。一些常见的改写经验。包括sess,tf.placeholder, tf.InteractiveSession(),tf.Session()
tensorflow2相比于tensorflow 1.x版本有较大的变化,且网上现在好多文章的代码都是基于tf1.x版本的,学会简单的转换,帮助我们看代码。
整体来说,tensorflow2更加简洁了。
本文将持续更新中。
当然用tf.compat.v1也能解决部分问题。但是不推荐,毕竟tf2才是未来。
1、tf1基于图模式,tf2基于eager模式,tf2对程序员更友好,更像是函数,更方便调试。
2、tf2更向keras靠拢,对分布式训练的支持更好。
tensorflow 1.x版本中的placeholder,在tf2中已经被取消,在tf2中,可以用tf.keras.Inputs代替。
示例:
tf1中
input_ids = tf.placeholder(dtype=tf.int32, shape=[None])
tf2中,改写为:
input_ids = tf.keras.Input(dtype=tf.int32, shape=[None])
所以,tf1中session部分代码,可以全部去掉。
示例:
tf1中
sess = tf.InteractiveSession() sess.run(tf.global_variables_initializer())
tf2中,改写为:直接不要
tf1的代码:
import tensorflow as tf import numpy as np # 定义一个未知变量input_ids用于存储索引 input_ids = tf.placeholder(dtype=tf.int32, shape=[None]) # 定义一个已知变量embedding,是一个5*3的矩阵 embedding = a = np.asarray([[0.1, 0.2, 0.3], [1.1, 1.2, 1.3], [2.1, 2.2, 2.3], [3.1, 3.2, 3.3], [4.1, 4.2, 4.3]]) # 根据input_ids中的id,查找embedding中对应的元素 input_embedding = tf.nn.embedding_lookup(embedding, input_ids) sess = tf.InteractiveSession() sess.run(tf.global_variables_initializer()) # print(embedding.eval()) print(sess.run(input_embedding, feed_dict={input_ids: [1, 2, 3, 0, 3, 2, 1]}))
改写tf2代码:
import tensorflow as tf import numpy as np # 定义一个未知变量input_ids用于存储索引 input_ids = tf.keras.Input(dtype=tf.int32, shape=[None]) # 定义一个已知变量embedding,是一个5*3的矩阵 embedding = a = np.asarray([[0.1, 0.2, 0.3], [1.1, 1.2, 1.3], [2.1, 2.2, 2.3], [3.1, 3.2, 3.3], [4.1, 4.2, 4.3]]) input_ids = np.array([1, 2, 3, 0, 3, 2, 1]) # 根据input_ids中的id,查找embedding中对应的元素 input_embedding = tf.nn.embedding_lookup(embedding, input_ids) print(input_embedding)
可见,tf2代码简洁明了不少,多动手试试,就能体会。
深刻体会tf2带来的变革。
1、体会静态图和动态图的差别
2、体会对分布式训练的优化(未来写)
3、体会模型训练的便利性(直接用compile等,keras的便利性。)