Skip to content

Latest commit

 

History

History
executable file
·
53 lines (43 loc) · 2.3 KB

README.md

File metadata and controls

executable file
·
53 lines (43 loc) · 2.3 KB

使用方法

中文说明 | English

用户可以基于已发布的预训练模型CINO在YNAT朝鲜语数据集上进行精调实验。

测试环境

  • numpy : 1.21.2
  • python : 3.7.10
  • pytorch : 1.7.1
  • scikit-learn : 0.24.2
  • transformers : 3.1.0

示例步骤

本例中,我们使用 CINO-large 模型在YNAT朝鲜语数据集上进行精调,相关步骤如下。假设,

  • project-dir:工作根目录,可按实际情况设置。
  • data-dir:数据目录,本例为 ${project-dir}/data/
  • model_pretrain_dir:预训练模型目录,本例为 ${project-dir}/model/
  • model_save_dir:精调最优模型参数存储目录,本例为 ${project-dir}/saved_models/
  • best_model_save_name:精调最优模型参数文件名,本例为 best_cino.pth

第一步:模型准备

模型下载章节中,下载CINO-large模型,并解压至${project-dir}/model/。 该目录下应包含pytorch_model.binsentencepiece.bpe.modelconfig.json,共计3个文件。

第二步:数据准备

参照朝鲜语文本分类(YNAT)章节中的说明,下载数据集到${data-dir},自行提取标题和分类、处理成 dataset example 格式,并将训练集和开发集分别重命名为train.txtdev.txt。关于类别索引,请参考第三步中的${class_names}.

第三步:运行训练命令

python ynat_finetune.py --params cino-params.json

params是一个JSON词典,在本例中的cino-params.json包含了精调相关参数,例如:

{
    "learning_rate":5e-6,
    "epoch":5,
    "gradient_acc":4,
    "batch_size":16,
    "max_len":512,
    "weight_decay":1e-4,
    "warmup_rate":0.1,
    "data_dir":"data/",
    "model_pretrain_dir":"model/", 
    "model_save_dir":"saved_models/",
    "best_model_save_name":"best_cino.pth",
    "class_names":["政治", "经济", "社会", "文化", "世界", "IT/科学", "运动"]
}

运行完毕后,精调过程的日志信息和模型在开发集的测试结果可在${project-dir}/log/cino_ynat.log中查看。