Использование локальной языковой модели с прокси-сервером разработки
Подключив прокси-сервер разработки к локальной языковой модели, вы можете улучшить функциональные возможности прокси-сервера разработки. Выберите подключаемые модули Прокси для разработки, используя языковую модель для улучшения выходных данных, где участвует естественный язык. Используя локальную языковую модель, вы можете воспользоваться улучшенными функциональными возможностями без дополнительных затрат.
Необходимые компоненты
Dev Proxy поддерживает Ollama в качестве узла для локальных языковых моделей. Чтобы настроить его на компьютере, следуйте инструкциям в документации по Ollama.
Настройка прокси-сервера разработки для использования локальной языковой модели
Чтобы настроить прокси-сервер разработки для использования локальной языковой модели, используйте languageModel
параметр в devproxyrc.json
файле.
{
"languageModel": {
"enabled": true
}
}
В рамках languageModel
параметра можно использовать следующие параметры:
Вариант | Описание | Default value |
---|---|---|
cacheResponses |
Указывает, следует ли кэшировать ответы из языковой модели. | true |
enabled |
Указывает, следует ли использовать локальную языковую модель. | false |
model |
Имя используемой языковой модели. | phi3 |
url |
URL-адрес экземпляра Ollama. | http://localhost:11434 |
По умолчанию Dev Proxy использует конфигурацию Ollama по умолчанию с моделью Phi-3 . Он также кэширует ответы из языковой модели, что означает, что для того же запроса вы получаете немедленный ответ, не ожидая обработки языковой модели.
Внимание
При использовании локальной языковой модели обязательно запустите Ollama перед запуском прокси-сервера разработки.
Подключаемые модули Прокси для разработки, которые могут использовать локальную языковую модель
При наличии следующие подключаемые модули прокси-сервера разработки используют локальную языковую модель: