tensorflow保存和读取模型(通过图.meta) 小灰灰 2022-11-27 12:16 109阅读 0赞 1、加载模型 当我们基于`checkpoint`文件(`ckpt`)加载参数时,实际上我们使用`Saver.restore`取代了`initializer`的初始化 `checkpoint`文件会记录保存信息,通过它可以定位最新保存的模型: ![在这里插入图片描述][20200815153925909.png_pic_center] `checkpoint`文件会记录保存信息,通过它可以定位最新保存的模型: ckpt = tf.train.get_checkpoint_state('./model/') print(ckpt) 结果如下: ![在这里插入图片描述][20200815153850180.png_pic_center] `tf.train.get_checkpoint_state('./model/')`是在路径`./model`下通过读取路径中的`checkpoint`的信息,来进行信息的读取,读取的`ckpt`包含两种值:分别是 * `model_checkpoint_path`:表示为最新保留的权重节点, * `all_model_checkpoint_paths`:表示所有保存的节点 保存的文件中 .meta文件保存了当前图结构 .data文件保存了当前参数名和值 .index文件保存了辅助索引信息 .data文件可以查询到参数名和参数值,使用下面的命令可以查询保存在文件中的全部变量\{名:值\}对, from tensorflow.python.tools.inspect_checkpoint import print_tensors_in_checkpoint_file print_tensors_in_checkpoint_file(os.path.join(savedir,savefile),None,True) tf.train.import\_meta\_graph函数给出model.ckpt-n.meta的路径后会加载图结构,并返回saver对象 ckpt = tf.train.get_checkpoint_state('./model/') tf.train.Saver函数会返回加载默认图的saver对象,saver对象初始化时可以指定变量映射方式,根据名字映射变量(『TensorFlow』滑动平均) saver = tf.train.Saver({ "v/ExponentialMovingAverage":v}) `saver.restore`函数给出`model.ckpt-n`的路径后会自动寻找参数名-值文件进行加载 saver.restore(sess,'./model/model.ckpt-0') saver.restore(sess,ckpt.model_checkpoint_path) ## 1.不加载图结构,只加载参数 ## 由于实际上我们参数保存的都是`Variable`变量的值,所以其他的参数值(例如`batch_size`)等,我们在`restore`时可能希望修改,但是图结构在train时一般就已经确定了,所以我们可以使用`tf.Graph().as_default()`新建一个默认图(建议使用上下文环境),利用这个新图修改和变量无关的参值大小,从而达到目的。 ''' 使用原网络保存的模型加载到自己重新定义的图上 可以使用python变量名加载模型,也可以使用节点名 ''' import AlexNet as Net import AlexNet_train as train import random import tensorflow as tf IMAGE_PATH = './flower_photos/daisy/5673728_71b8cb57eb.jpg' with tf.Graph().as_default() as g: x = tf.placeholder(tf.float32, [1, train.INPUT_SIZE[0], train.INPUT_SIZE[1], 3]) y = Net.inference_1(x, N_CLASS=5, train=False) with tf.Session() as sess: # 程序前面得有 Variable 供 save or restore 才不报错 # 否则会提示没有可保存的变量 saver = tf.train.Saver() ckpt = tf.train.get_checkpoint_state('./model/') img_raw = tf.gfile.FastGFile(IMAGE_PATH, 'rb').read() img = sess.run(tf.expand_dims(tf.image.resize_images( tf.image.decode_jpeg(img_raw),[224,224],method=random.randint(0,3)),0)) if ckpt and ckpt.model_checkpoint_path: print(ckpt.model_checkpoint_path) saver.restore(sess,'./model/model.ckpt-0') global_step = ckpt.model_checkpoint_path.split('/')[-1].split('-')[-1] res = sess.run(y, feed_dict={ x: img}) print(global_step,sess.run(tf.argmax(res,1))) ## 2.加载图结构和参数 ## ''' 直接使用使用保存好的图 无需加载python定义的结构,直接使用节点名称加载模型 由于节点形状已经定下来了,所以有不便之处,placeholder定义batch后单张传会报错 现阶段不推荐使用,以后如果理解深入了可能会找到使用方法 ''' import AlexNet_train as train import random import tensorflow as tf IMAGE_PATH = './flower_photos/daisy/5673728_71b8cb57eb.jpg' ckpt = tf.train.get_checkpoint_state('./model/') # 通过检查点文件锁定最新的模型 saver = tf.train.import_meta_graph(ckpt.model_checkpoint_path +'.meta') # 载入图结构,保存在.meta文件中 with tf.Session() as sess: saver.restore(sess,ckpt.model_checkpoint_path) # 载入参数,参数保存在两个文件中,不过restore会自己寻找 img_raw = tf.gfile.FastGFile(IMAGE_PATH, 'rb').read() img = sess.run(tf.image.resize_images( tf.image.decode_jpeg(img_raw), train.INPUT_SIZE, method=random.randint(0, 3))) imgs = [] for i in range(128): imgs.append(img) print(sess.run(tf.get_default_graph().get_tensor_by_name('fc3:0'),feed_dict={ 'Placeholder:0': imgs})) ''' img = sess.run(tf.expand_dims(tf.image.resize_images( tf.image.decode_jpeg(img_raw), train.INPUT_SIZE, method=random.randint(0, 3)), 0)) print(img) imgs = [] for i in range(128): imgs.append(img) print(sess.run(tf.get_default_graph().get_tensor_by_name('conv1:0'), feed_dict={ 'Placeholder:0':img})) 注意,在所有两种方式中都可以通过调用节点名称使用节点输出张量,节点.name属性返回节点名称。 ## 3.简化版本 ## # 连同图结构一同加载 ckpt = tf.train.get_checkpoint_state('./model/') saver = tf.train.import_meta_graph(ckpt.model_checkpoint_path +'.meta') with tf.Session() as sess: saver.restore(sess,ckpt.model_checkpoint_path) # 只加载数据,不加载图结构,可以在新图中改变batch_size等的值 # 不过需要注意,Saver对象实例化之前需要定义好新的图结构,否则会报错 saver = tf.train.Saver() with tf.Session() as sess: ckpt = tf.train.get_checkpoint_state('./model/') saver.restore(sess,ckpt.model_checkpoint_path) ## 二、TensorFlow二进制模型加载方法 ## 这种加载方法一般是对应网上各大公司已经训练好的网络模型进行修改的工作 # 新建空白图 self.graph = tf.Graph() # 空白图列为默认图 with self.graph.as_default(): # 二进制读取模型文件 with tf.gfile.FastGFile(os.path.join(model_dir,model_name),'rb') as f: # 新建GraphDef文件,用于临时载入模型中的图 graph_def = tf.GraphDef() # GraphDef加载模型中的图 graph_def.ParseFromString(f.read()) # 在空白图中加载GraphDef中的图 tf.import_graph_def(graph_def,name='') # 在图中获取张量需要使用graph.get_tensor_by_name加张量名 # 这里的张量可以直接用于session的run方法求值了 # 补充一个基础知识,形如'conv1'是节点名称,而'conv1:0'是张量名称,表示节点的第一个输出张量 self.input_tensor = self.graph.get_tensor_by_name(self.input_tensor_name) self.layer_tensors = [self.graph.get_tensor_by_name(name + ':0') for name in self.layer_operation_names] ## 三、二进制模型制作 ## 这节是关于`tensorflow`的`Freezing`,字面意思是冷冻,可理解为整合合并;整合什么呢,就是将模型文件和权重文件整合合并为一个文件,主要用途是便于发布。 `tensorflow`在训练过程中,通常不会将权重数据保存的格式文件里(这里我理解是模型文件),反而是分开保存在一个叫`checkpoint`的检查点文件里,当初始化时,再通过模型文件里的变量`Op`节点来从`checkoupoint`文件读取数据并初始化变量。这种模型和权重数据分开保存的情况,使得发布产品时不是那么方便,我们可以将tf的图和参数文件整合进一个后缀为pb的二进制文件中,由于整合过程回将变量转化为常量,所以我们在日后读取模型文件时**不能够进行训练,仅能向前传播**,而且我们在保存时需要指定节点名称。 将图变量转换为常量的API:tf.graph\_util.convert\_variables\_to\_constants 转换后的`graph_def`对象转换为二进制数据`(graph_def.SerializeToString())`后,写入`pb`即可。 import tensorflow as tf v1 = tf.Variable(tf.constant(1.0, shape=[1]), name='v1') v2 = tf.Variable(tf.constant(2.0, shape=[1]), name='v2') result = v1 + v2 saver = tf.train.Saver() with tf.Session() as sess: sess.run(tf.global_variables_initializer()) saver.save(sess, './tmodel/test_model.ckpt') gd = tf.graph_util.convert_variables_to_constants(sess, tf.get_default_graph().as_graph_def(), ['add']) with tf.gfile.GFile('./tmodel/model.pb', 'wb') as f: f.write(gd.SerializeToString()) 我们可以直接查看gd: node { name: "v1" op: "Const" attr { key: "dtype" value { type: DT_FLOAT } } attr { key: "value" value { tensor { dtype: DT_FLOAT tensor_shape { dim { size: 1 } } float_val: 1.0 } } } } …… node { name: "add" op: "Add" input: "v1/read" input: "v2/read" attr { key: "T" value { type: DT_FLOAT } } } library { } ## 四、从图上读取张量 ## 上面的代码实际上已经包含了本小节的内容,但是由于从图上读取特定的张量是如此的重要,所以我仍然单独的补充上这部分的内容。 无论如何,想要获取特定的张量我们必须要有张量的名称和图的句柄,比如 `'import/pool_3/_reshape:0'` 这种,有了张量名和图,索引就很简单了。 **从二进制模型加载张量** 第二小节的代码很好的展示了这种情况 BOTTLENECK_TENSOR_NAME = 'pool_3/_reshape:0' # 瓶颈层输出张量名称 JPEG_DATA_TENSOR_NAME = 'DecodeJpeg/contents:0' # 输入层张量名称 MODEL_DIR = './inception_dec_2015' # 模型存放文件夹 MODEL_FILE = 'tensorflow_inception_graph.pb' # 模型名 # 加载模型 # with gfile.FastGFile(os.path.join(MODEL_DIR,MODEL_FILE),'rb') as f: # 阅读器上下文 with open(os.path.join(MODEL_DIR, MODEL_FILE), 'rb') as f: # 阅读器上下文 graph_def = tf.GraphDef() # 生成图 graph_def.ParseFromString(f.read()) # 图加载模型 # 加载图上节点张量(按照句柄理解) bottleneck_tensor, jpeg_data_tensor = tf.import_graph_def( # 从图上读取张量,同时导入默认图 graph_def, return_elements=[BOTTLENECK_TENSOR_NAME, JPEG_DATA_TENSOR_NAME]) **从当前图中获取对应张量** 这个就是很普通的情况,从我们当前操作的图中获取某个张量,用于feed啦或者用于输出等操作,API也很简单,用法如下: g.get_tensor_by_name('import/pool_3/_reshape:0') `g`表示当前图句柄,可以简单的使用 `g = tf.get_default_graph()` 获取。 **从图中获取节点信息** 有的时候我们对于模型中的节点并不够了解,此时我们可以通过图句柄来查询图的构造: g = tf.get_default_graph() print(g.as_graph_def().node) 这个操作将返回图的构造结构。从这里,对比前面的代码,我们也可以了解到:graph\_def 实际就是图的结构信息存储形式,我们可以将之还原为图(二进制模型加载代码中展示了),也可以从图中将之提取出来(本部分代码)。 [20200815153925909.png_pic_center]: /images/20221124/ecafdb7214a64981a5af50d5eced60c7.png [20200815153850180.png_pic_center]: /images/20221124/5f0af804468b4f17b36780352aab7eca.png
还没有评论,来说两句吧...