加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 百科 > 正文

使用tensorflow c api运行会话比使用python要慢得多

发布时间:2020-12-16 07:21:07 所属栏目:百科 来源:网络整理
导读:我正在尝试使用tensorflow c api(仅限CPU)运行SqueezeDet.我已经冻结了张量流图并从C中加载了它.虽然在检测质量方面一切都很好,但性能比 python慢??得多.可能是什么原因? 简化,我的代码如下所示: int main (int argc,const char * argv[]) { // Initializi
我正在尝试使用tensorflow c api(仅限CPU)运行SqueezeDet.我已经冻结了张量流图并从C中加载了它.虽然在检测质量方面一切都很好,但性能比 python慢??得多.可能是什么原因?

简化,我的代码如下所示:

int main (int argc,const char * argv[])
  {
    // Initializing graph 
    tensorflow::GraphDef graph_def;
    // Folder in which graph data is located
    string graph_file_name = "Model/graph.pb";
    // Loading graph 
    tensorflow::Status graph_loaded_status =  ReadBinaryProto(tensorflow::Env::Default(),graph_file_name,&graph_def);
    if (!graph_loaded_status.ok())
    {
      cout << graph_loaded_status.ToString() << endl;
      return 1;
    }
    unique_ptr<tensorflow::Session> session_sqdet(tensorflow::NewSession(tensorflow::SessionOptions()));
    tensorflow::Status session_create_status = session_sqdet->Create(graph_def);
    if (!session_create_status.ok())
    {
      cout << "Session create status: fail." << endl;
      return 1;
    }
    while ()
    {
      /* create & preprocess batch */

      session.Run({{ "image_input",input_tensor},{"keep_prob",prob_tensor}},{"probability/score","bbox/trimming/bbox"},{},&final_output);

      /* do some postprocessing */
    }
  }

我尝试过的:

1)使用优化标志 – 所有都打开,没有警告.

2)使用批处理:性能提高,但python和C之间的差距仍然很大(运行会话需要1s vs 2.4s,batch_size = 20).

任何帮助将受到高度赞赏.

解决方法

我花了很多时间在这个问题上(大多数是因为我犯了愚蠢的错误),但我终于解决了它.现在我想在这里发布我的经验,因为它可能有用.

所以这些步骤我建议跟随面对同一问题的人(其中一些非常明显):

0)正确进行分析!确保您在多核/ GPU /您拥有的任何设置中使用可靠的工具.

1)检查tensorflow和所有相关的包是否都是在所有优化的基础上构建的.

2)冻结后优化图形.

3)如果您在训练和推理期间使用不同的批量大小,请确保已删除模型中的所有依赖项!请注意,否则您将无法获得错误消息或在结果质量方面表现更差,您只会出现神秘的减速!

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读