需求原因:
使用onnx模型部署项目,可以减少对运行环境tensorflow的依赖
转换方法:
梳理清楚原始模型的输入输出:
from onnxruntime import InferenceSession,GraphOptimizationLevel,SessionOptions
import tf2onnx
import onnx
def pb_2_onnx(model_path,output_path):
with tf.Session() as sess:
tf.global_variables_initializer().run()
output_graph_def = tf.GraphDef()
with open(model_path, "rb") as f:
output_graph_def.ParseFromString(f.read())
print("开始转换模型...")
onnx_model, _ = tf2onnx.convert.from_graph_服务器托管网def(graph_def=output_graph_def, input_names=["embedding:0","mask:0"], output_names=["predict_outputs:0"], opset=13)
print("完成转换模型...")
onnx.save(onnx_model, output_path)
注意事项:
[1] 输入输出的name要写对;
[2]如果遇到报错了,有可能是环境版本的问题,或者输入输出name没写对,改代码可以正常运行
服务器托管,北京服务器托管,服务器租用 http://www.fwqtg.net
机房租用,北京服务器托管网机房租用,IDC机房托管, http://www.fwqtg.net
ansible简介 今天我打算讲讲ansible,从网络的角度去看看ansible到底为什么这么火,同时也结合笔者自己的一些经历来看ansible有哪些局限。 去网上看ansible的资料,基本都是互相抄来抄去,再举几个自己的例子。这次我希望能有所突破,给大家…