Skip to content

HydroGest/YesImBot

Repository files navigation

Athena | YesImBot

感谢 @MizuAsaka 提供 Logo

npm MIT License Language NPM Downloads Static Badge

✨机器壳,人类心。✨

🎐 简介

YesImBot / Athena 是一个 Koishi 插件,旨在让人工智能大模型也能参与到群聊的讨论中。

新的文档站已上线:https://yesimbot.ccalliance.tech

🎹 特性

  • 轻松自定义:Bot 的名字、性格、情感,以及其他额外的消息都可以在插件配置中轻易修改。

  • 负载均衡:你可以配置多个大模型的 API 接口, Athena 会均衡地调用每一个 API。

  • 沉浸感知:大模型感知当前的背景信息,如日期时间、群聊名字,At 消息等。

  • 防提示注入:Athena 将会屏蔽可能对大模型进行注入的消息,防止机器人被他人破坏。

  • Prompt 自动获取:无需自行配制,多种优质 Prompt 开箱即用。

  • AND MORE...

🌈 开始使用

Important

继续前, 请确保正在使用 Athena 的最新版本。

Caution

请仔细阅读此部分, 这很重要。

下面来讲解配置文件的用法:

# 会话设置
Group:
    # 记忆槽位,每一个记忆槽位都可以填入一个或多个会话id(群号或private:私聊账号),在一个槽位中的会话id会共享上下文
    AllowedGroups:
        - 114514 # 收到来自114514的消息时,优先使用这个槽位,意味着bot在此群中无其他会话的记忆
        - 114514, private:1919810 # 收到来自1919810的私聊消息时,优先使用这个槽位,意味着bot此时拥有两个会话的记忆
        - private:1919810, 12085141, 2551991321520
    # 规定机器人能阅读的上下文数量
    SendQueueSize: 100
    # 机器人在每个会话开始发言所需的消息数量,即首次触发条数
    TriggerCount: 2
    # 以下是每次机器人发送消息后的冷却条数由LLM确定或取随机数的区间
    # 最大冷却条数
    MaxPopNum: 4
    # 最小冷却条数
    MinPopNum: 2
    # 每次收到 @ 消息,机器人马上开始做出回复的概率。 取值范围:[0, 1]
    AtReactPossibility: 0.50 # 以前这里写错成了 AtReactPossiblilty,现在已经修正了
    # 过滤的消息。这些包含这些关键词的消息将不会加入到上下文。
    # 这主要是为了防止 Bot 遭受提示词注入攻击。
    Filter:
        - You are
        - 
        - 大家

# LLM API 相关设置
API:
    # 这是个列表,可以配置多个 API,实现负载均衡。
    APIList:
        # API 返回格式类型,可选 OpenAI / Cloudflare
        - APIType: OpenAI
          # API 基础 URL,此处以 OpenAI 为例
          # 若你是 Cloudflare, 请填入 https://api.cloudflare.com/client/v4
          BaseURL: https://api.openai.com/
          # 你的 API 令牌
          APIKey: sk-XXXXXXXXXXXXXXXXXXXXXXXXXXXX
          # 模型
          AIModel: gpt-4o-mini
          # 若你正在使用 Cloudflare,不要忘记下面这个配置
          # Cloudflare Account ID,若不清楚可以看看你 Cloudflare 控制台的 URL
          UID: xxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

# 机器人设定
Bot:
    # 名字
    BotName: 胡梨
    # 原神模式(什
    CuteMode: true
    # Prompt 文件的下载链接或文件名。如果下载失败,请手动下载文件并放入 koishi.yml 所在目录
    # 非常重要! 如果你不理解这是什么,请不要修改
    PromptFileUrl:
        - "https://raw.githubusercontent.com/HydroGest/promptHosting/main/src/prompt.mdt" # 一代 Prompt,所有 AI 模型适用
        - "https://raw.githubusercontent.com/HydroGest/promptHosting/main/src/prompt-next.mdt" # 下一代 Prompt,效果最佳,如果你是富哥,用的起 Claude 3.5 / GPT-4 等,则推荐使用
        - "https://raw.githubusercontent.com/HydroGest/promptHosting/main/src/prompt-next-short.mdt" # 下一代 Prompt 的删减版,适合 GPT-4o-mini 等低配模型使用
    # 当前选择的 Prompt 索引,从 0 开始
    PromptFileSelected: 2
    # Bot 的自我认知
    WhoAmI: 一个普通群友
    # Bot 的性格
    BotPersonality: 冷漠/高傲/网络女神
    # 屏蔽其他指令(实验性)
    SendDirectly: true
    # 机器人的习惯,当然你也可以放点别的小叮咛
    BotHabbits: 辩论
    # 机器人的背景
    BotBackground: 校辩论队选手
    ... # 其他应用于prompt的角色设定。如果这些配置项没有被写入prompt文件,那么这些配置项将不会体现作用
    # 机器人消息后处理,用于在机器人发送消息前的最后一个关头替换消息中的内容,支持正则表达式
    BotSentencePostProcess:
        - replacethis: 。$
          tothis: ''
        - replacethis: 哈哈哈哈
          tothis: 嘎哈哈哈
    # 机器人的打字速度
    WordsPerSecond: 30 # 30 字每秒
... # 其他配置项参见文档站

然后,将机器人拉到对应的群组中。机器人首先会潜水一段时间,这取决于 Group.TriggerCount 的配置。当新消息条数达到这个值之后,Bot 就要开始参与讨论了(这也非常还原真实人类的情况,不是吗)。

Tip

如果你认为 Bot 太活跃了,你也可以将 Group.MinPopNum 数值调高。

Warning

频次配置应保持如下关系: Group.MinPopNum < Group.MaxPopNum < Group.SendQueueSize,否则会导致问题。

接下来你可以根据实际情况调整机器人设定中的选项。在这方面你大可以自由发挥。但是如果你用的是 Cloudflare Workers AI,你可以会发现你的机器人在胡言乱语。这是 Cloudflare Workers AI 的免费模型效果不够好,中文语料较差导致的。如果你想要在保证 AI 发言质量的情况下尽量选择价格较为经济的 AI 模型,那么 ChatGPT-4o-mini 或许是明智之选。当然,你也不一定必须使用 OpenAI 的官方 API,Athena 支持任何使用 OpenAI 官方格式的 API 接口。

Note

经过测试, Claude 3.5 模型在此场景下表现最佳。

📃 自定义系统提示词

将prompt.mdt文件下载到本地后,如果你觉得我们写得不好,或者是有自己新奇的想法,你可能会想要自定义这部分内容。接下来我们就来教你如何这么做。

首先,你需要在插件的配置中关闭 每次启动时尝试更新 Prompt 文件 这个选项,它在配置页面最下面的调试工具配置项中。之后,你可以在koishi的资源管理器中找到prompt.mdt这个文件。你可以在koishi自带的编辑器中自由地修改这个文件,不过下面有几点你需要注意:

  • 某些字段会被替换,下面是所有会被替换的字段:
${config.Bot.BotName} -> 机器人的名字
${config.Bot.WhoAmI} -> 机器人的自我认知
${config.Bot.BotHometown} -> 机器人的家乡
${config.Bot.BotYearold} -> 机器人的年龄
${config.Bot.BotPersonality} -> 机器人的性格
${config.Bot.BotGender} -> 机器人的性别
${config.Bot.BotHabbits} -> 机器人的习惯
${config.Bot.BotBackground} -> 机器人的背景
${config.Bot.CuteMode} -> 开启|关闭

${curYear} -> 当前年份 # 2024
${curMonth} -> 当前月份 # 11
${curDate} -> 当前日期 # 25
${curHour} -> 当前小时 # 10
${curMinute} -> 当前分钟 # 30
${curSecond} -> 当前秒数 # 15

${curGroupName} -> 触发此次调用的消息所在会话的名字。如果是私聊,则为“bot与xxx的私聊”

<img src="https://xxxxx.jpg base64="xx_xxxx"> -> 将交由图片查看器处理的图片 # 没想到吧系统提示词里也可以插图片
  • 当前,消息队列呈现给 LLM 的格式是这样的:
[
  {
    time: "",  // 时间戳,格式为yyyy/mm/dd/hh/min/sec
    session_id: "",  // 此消息所在的会话id,示例:"123456789","private:9876543210"
    id: "",  // 消息id,bot在需要引用消息时,用它来确定在select中填写的值
    author: "",  // 消息发送者的名字
    author_id: "",  // 消息发送者的id
    msg: ""  // 消息本体
  },
  {
    time: "",
    session_id: "",
    id: "",
    author: "",
    author_id: "",
    msg: ""
  },
  ...
]
  • 当前,Athena 希望 LLM 返回的格式是这样的:
{
      "status": "success", // "success" 或 "skip" (跳过回复)
      "session_id": "123456789", // 要把finReply发送到的会话id
      "nextReplyIn": 2, // 下次回复的冷却条数,让LLM参与控制发言频率
      "logic": "", // LLM思考过程
      "reply": "", // 初版回复
      "check": "", // 检查初版回复是否符合 "消息生成条例" 过程中的检查逻辑。
      "finReply": "", // 最终版回复,让LLM在开头添加<quote id=""/>来指定引用回复的消息id
      "execute":[] // 要运行的指令列表
}

Note

自己修改prompt时,请确保 LLM 的回复符合要求的JSON格式。但缺少某些条目好像也没关系?Σ(っ °Д °;)っ

🌼 推荐的 API 提供商

我们强烈推荐大家使用非 Token 计费的 API,这是因为 Athena 每次对话的前置 Prompt 本身消耗了非常多的 Token。你可以使用一些以调用次数计费的 API,比如:

✨ 效果

截图

🍧 TODO

我们的终极目标是——即使哪一天你的账号接入了 Athena,群友也不能发现任何端倪——我们一切的改进都是朝这方面努力的。

  • At 消息识别
  • 表情发送
  • 图片多模态与基于图像识别的伪多模态
  • 转发消息拾取
  • TTS/STT 文字转语音
  • RAG 记忆库
  • 读取文件
  • 工具调用

💫 贡献者

感谢贡献者们, 是你们让 Athena 成为可能。

contributors

💡反馈

欢迎发布 issue,或是直接加入 Athena 官方交流 & 测试群:857518324,我们随时欢迎你的来访!

⭐Star History

Star History Chart