TransGPTex 是一个用于将 LaTeX 文章翻译成中文(或者其他语言)并编译成 PDF 的工具。它通过使用大型语言模型 (LLM) 来实现高质量的翻译。
20240719更新:openai推出了便宜的gpt-4o-mini模型,速度快、在latex方面效果也很不错,因此之后打算迁移到默认以gpt-4o-mini模型为翻译后端的版本。
目前可以直接这样使用gpt-4o-mini作为翻译LLM:
# 申请llm api key,windows使用set,linux使用export
set LLM_API_KEY="申请的llm api key"
# 翻译,使用gpt-4o-mini模型
tgtex https://arxiv.org/abs/xxxx.xxxxx -o "paper title" -llm_model gpt-4o-mini -end_point {api端点 官方或者中转端点}
- 支持从 arXiv 直接下载 LaTeX 源码。
- 支持翻译单个 LaTeX 文件或整个 LaTeX 项目。
- 支持自定义翻译语言和翻译模型。
- 支持编译生成 PDF 文件。
pip install transgptex
通过命令行:
# 设置API key
export LLM_API_KEY="glm api key"
# 从 arXiv 翻译并编译整个文章项目
tgtex https://arxiv.org/abs/paper_id -o output/path
# 翻译整个 LaTeX 项目
tgtex --own_tex_project -o output/path path/to/your/latex/project
# 翻译单个 LaTeX 文件
tgtex --single_tex -o output.tex path/to/your/latex/file.tex
# 获取帮助
tgtex -h
几个核心的配置:
llm_model
: 选择使用的 LLM 模型,默认为 glm-4-air。end_point
: LLM 推理端点 URL,默认为 https://open.bigmodel.cn/api/paas/v4/。qps
: LLM API 的每秒查询数,默认为 5。api_key
: 请配置在环境变量LLM_API_KEY
中。
如果使用其他模型可以修改llm_model
和end_point
来实现。比如使用deepseek-v2模型,则可以改为:
# 设置LLM API KEY
export LLM_API_KEY="deepseek api key"
# 调用deepseek模型进行翻译
tgtex https://arxiv.org/abs/paper_id -o output/path -llm_model deepseek-chat -end_point https://api.deepseek.com/v1
TransGPTex 项目采用 MIT 许可证。