我目前正在尝试微调 DistilGPT-2(使用 Pytorch 和 HuggingFace 转换器库)以完成代码完成任务。我的语料库排列如下示例:
<|startoftext|>
public class FindCityByIdService {
private CityRepository cityRepository = ...
<|endoftext|>
我的第一次尝试是从转换器库中运行以下脚本:
python run_clm.py
--model_type=gpt2 \
--model_name_or_path distilgpt2 \
--do_train \
--train_file $TRAIN_FILE \
--num_train_epochs 100 \
--output_dir $OUTPUT_DIR \
--overwrite_output_dir \
--save_steps 20000 \
--per_device_train_batch_size 4 \
在进行了一些生成测试之后,我意识到该模型无法预测\ n
任何给定的上下文。我想缺少一些预处理阶段或类似的东西。但是无论如何,我应该怎么做\ n
才能按预期进行预测?
谢谢!!