我试图加载一次 SuperTransformer 模型,并在循环中多次对数据集执行预测 - 同时每次都更改采样模型配置。
我正在使用 github.com/mit-han-lab/hardware-aware-transformers 中的 generate.py 文件在WMT'14En -De 数据集上运行翻译。更改采样模型配置的代码部分位于model.set_sample_config(config)
generate.py 的第 67 行。
基本上,我想要实现的是使用不同的 SubTransformer 配置对数据集重复推理——同时只加载数据集和模型一次(在第二次迭代中尽可能多地减少开销)。
我目前正在尝试实现以下修改后的代码,在#Load ensemble 阶段之后使用while循环,并在每次迭代后更改“config”变量。
# Load ensemble
print('| loading model(s) from {}'.format(args.path))
models, _model_args = checkpoint_utils.load_model_ensemble(
args.path.split(':'),
arg_overrides=eval(args.model_overrides),
task=task,
)
torch.manual_seed(args.seed)
#loop twice, change 'config' variable on second iteration to have different SubTransformer configuration
while i in range (0,2):
# Optimize ensemble for generation
for model in models:
if use_cuda:
model.cuda()
config = utils.get_subtransformer_config(args)
model.set_sample_config(config)
model.make_generation_fast_(
beamable_mm_beam_size=None if args.no_beamable_mm else args.beam,
need_attn=args.print_alignment,
)
但是,我收到以下错误:shape is invalid for input of size x
问题似乎与 sequence_generator.py 中“lprobs”变量的大小有关,其中第二次迭代的大小总是错误的。即使代码再次使用相同的 SubTransformer 配置循环,也会发生此错误。
我对 PyTorch 库和机器学习相当陌生,所以我能得到的任何帮助都将不胜感激!谢谢。