两种模型:
- 一种是类似于bert的模型,从这里下载模型https://huggingface.co/hfl/chinese-roberta-wwm-ext
- 一种是llama结构的模型,这里使用了Qwen1.5-0.5B-Chat模型,点击链接下载。
- 将数据准备成json格式,参考
bge
的数据要求
{"query": str, "pos": List[str], "neg": List[str]}
- 将所有的数据,可以都放在一个文件夹中
- 如果是使用类似于bert的模型,参考
hz_run_embedding.sh
脚本,进行训练 - 如果是使用类似于llama的模型,参考
hz_run_embedding_qwen.sh
脚本,进行训练