-
背景
文章针对在线问答(QA)平台上的学生问题响应成本问题,介绍了通过使用开源大型语言模型(LLMs),结合检索增强生成(RAG)、监督式微调(SFT)以及直接偏好优化(DPO),显著提升了回答的质量。此外,论文还围绕使用LLaMA-2进行模型增强和试验,实现了一种新的面向教育QA的架构,并在此基础上展开广泛的测试和评估。 -
已有的工作 前期的尝试如GeorgiaTech的Jill Watson AI与Harvard的CS50.AI等,或依赖特定框架、或使用专有的LLMs,存在种种限制,如无法解答非常规问题、构建和维护需要大量时间、触及隐私问题等。而本文的方法则能在确保数据隐私的前提下,提供更广泛且灵活的查询响应。
- 提出了一个面向教育QA的创新解决方案
-
挑战1:学生问题的自动化回答质量 当前问题是QA平台上数以千计的学生问题需要高质量且及时的回应。本研究通过集成RAG、SFT和DPO等技术,对LLMs进行优化,从而在一个初学者CS课程的真实Piazza QA数据集上实现了质量上的显著提升。
-
挑战2:数据隐私及自定义化需求 使用开源的LLMs如LLaMA-2,结合innovative RAG等技术有望解决数据隐私问题,并允许开发更加定制化的解决方案,从而可以在保护隐私的同时为QA平台上的任一课程提供支持。
-
论文中没有详述实现与部署的具体细节,但文章的实验设置、模型结果示例比较、评价准则示例和评价提示中包含实现与部署的关键信息,并与之前的工作进行了对比分析。
本文提供了一个使用开源LLMs增强在线教育QA平台的新方案,并对其进行了广泛的评估和测试。通过将RAG、SFT和DPO等技术结合应用,确保了回答质量的显著提升和数据隐私的保护,对于开发智能QA助手具有重要的意义。