1 у нас есть локальный DeepSeek, который генерит более менее читаемые промты. 2 есть предобученный Yandex GPT PRO.
notebooks
- Deepseek - "notebooks/deepseek.ipynb" ->
- YandexGPT - "notebooks/2. deepseek_yandex.ipynb"
можно посмотреть "notebooks/pipeline_yaGPT.ipynb" там лонгрид по промтам, обучению, добавлению синтетики в трейн. чистим выход из модели, see 'jailbreak/clean_model_answer.ipynb' for additional information
-
I. Берем решение студента(файл Solutions) и смотрим компилируется ли код или нет. Если нет - отбрасываем все ошибки по оформлению и используем основную как сообщение часть промта для модели. Можно попытаться сматчить ошибки и сообщения из файла.
-
II. Используем сообщение об ошибке вместе с решением студента для промта GPT. Также используем стилистику из примеров для лучшего результата.
-
III. Компилируем решение студента, на вход подаем данные из тестов и смотрим какой именно из тестов не прошел(не совпадает с output тестов).
У нас получается строка(Ошибка в открытых и скрытых тестах. ) Далее используя эту информацию, составляем промт для GPT.
- из решение автора составляем промт для gpt.