1

我正在尝试使用 libtorch 将 Python 中的模型加载并使用到 c++ 中。程序编译正确,但我在 Input 上使用 forward 得到非法指令(核心转储)。

那是代码:

void test(vector<module_type>& model){
    //pseudo input
    vector<torch::jit::IValue> inputs;
    inputs.push_back(torch::ones({1, 3, 224, 224}));
    //ERROR IS HERE
    at::Tensor output = model[0].forward(inputs).toTensor();
    cout << output << endl;
}

int main(int argc, char *argv[]) {

    if (argc == 2){
        cout << argv[1] << endl;
    }
    else {
        cerr << "no path of model is given" << endl;
        return -1;
    }
    // test
    module_type module = torch::jit::load(argv[1]);
    vector<module_type> modul;
    modul.push_back(module);
    test(modul);

}

制作:

cmake_minimum_required(VERSION 3.0 FATAL_ERROR)
project(main)

find_package(Torch REQUIRED)

add_executable(main main.cpp)
target_link_libraries(main "${TORCH_LIBRARIES}")
set_property(TARGET main PROPERTY CXX_STANDARD 11)
4

1 回答 1

1

1)torch::jit::load返回类型是std::shared_ptr<torch::jit::script::Module>,所以你的代码应该是at::Tensor output = model[0]->forward(inputs).toTensor();

2) 出于某种原因,您的 Python 模型的导出可能会失败,但是如果没有看到您使用的实际 Python 代码,就很难判断。要查看有多少方法可用,请尝试:

auto module = torch::jit::load(argv[1]);
size_t number_of_methods = module->get_methods().size();

基本上,如果number_of_methods是 0,你有一个问题:序列化的对象不包含任何方法(问题来自你的 python 代码)。否则,转发方法应该可用。

于 2019-08-31T11:34:53.010 回答