save_inference_model

    • save_inference_model(dirname, feeded_var_names, target_vars, executor, main_program=None, model_filename=None, params_filename=None, export_for_deployment=True, program_only=False)[源代码]

    修剪指定的 main_program 以构建一个专门用于预测的 Inference ProgramProgram 含义详见 )。 所得到的 Inference Program 及其对应的所有相关参数均被保存到 dirname 指定的目录中。若只想保存训练后的模型参数,请使用 save_params 接口。更多细节请参考 。

    • 参数:
      • dirname (str) – 指定保存预测模型结构和参数的文件目录。
      • target_vars (list[Variable]) – (详见 基础概念 )类型列表,包含着模型的所有输出变量。通过这些输出变量即可得到模型的预测结果。
      • executor (Executor) – 用于保存预测模型的 executor ,详见 。
      • mainprogram (Program,可选) – 通过该参数指定的 main_program 可构建一个专门用于预测的 Inference Program 。 若为None, 则使用全局默认的 _main_program\ 。默认值为None。
      • modelfilename (str,可选) – 保存预测模型结构 Inference Program 的文件名称。若设置为None,则使用 \ 作为默认的文件名。
      • params_filename (str,可选) – 保存预测模型所有相关参数的文件名称。若设置为None,则模型参数被保存在单独的文件中。
      • program_only (bool,可选) – 若为True,则只保存预测模型的网络结构,而不保存预测模型的网络参数。默认值为False。

    返回: 用于获取模型预测结果的所有输出变量的名称列表。

    • 抛出异常:
      • ValueError – 若 feed_var_names 不是字符串列表,则抛出异常。
      • ValueError – 若 target_vars 不是 Variable 类型列表,则抛出异常。

    代码示例