первые же запросы с гугла (с поиском по хабру) <br/> <a href="https://habr.com/ru/articles/755114/" rel="nofollow">https://habr.com/ru/articles/755114/</a> <br/> <a href="https://habr.com/ru/companies/neoflex/articles/722584/" rel="nofollow">https://habr.com/ru/companies/neoflex/articles/722584/</a> <br/> <a href="https://habr.com/ru/companies/wunderfund/articles/731128/" rel="nofollow">https://habr.com/ru/companies/wunderfund/articles/...</a> <br/> <a href="https://habr.com/ru/articles/757086/" rel="nofollow">https://habr.com/ru/articles/757086/</a> <br/> <br/> Ключевые слова finetuning, peft модели llama, mixtral, google gemma (вышла буквально на днях, выглядит неожиданно хорошо для 2b/7b) <br/> Напрямую обучать модель новым знаниям сложно, и дорого а датасет это ты сам собираешь. Есть лайфхак - какими либо способами, на основании контекста формируют запрос в классическую базу данных (например реляционную) делают поиск, а результат вставляют в окно контекста (добавив сопроводительный текст, описывающий это как знания, на которые нужно опираться) и в результате модель получив эти данные, будет их использовать (это самое странное и непонятное в llm-ках). Само собой ВСЕ данные пихать в окно контекста не имеет смысла, оно маленькое а в открытых моделях еще и слабосвязное. <br/> Этот подход работает, но в итоге, вся работа - это в создании запросов и сопроводительных текстов, обрамляющих информацию, именно этот 'промпт инженеринг' и есть новое программирование. <br/> <br/> p.s. просто и красиво не будет <br/> Технология llm сырая, точнее в ней баг в идеологии, подразумевающий вероятностный результат, т.е. правильный с некоторой вероятностью, которая даже у топовых моделях (не доступных для дообучения обывателю) в среднем на специализированных бенчмарках - 60%-80%, а те модели что доступны, дают верные результаты с с еще меньшей вероятностью. <br/> <br/> Настоятельно рекомендую смотреть в сторону mixtral (для людей доступны модели 8x7b, работают по скорости как 7b а по качеству как 70b), инструкций по дообучению не густо, придется прогружаться в тему, при которой таких вопросов как выше не будут возникать, но односложно ответ не дать.