Шарим ollama в локалке или сервис есть, а нагрузки нет.
Кому это надо?
- Если Вы организация, которая имеет рабочие места с видеокартами, которые поддерживаются Ollama
- Если рабочие места под Windows
- Если руководство решило поиграться с LLM
- Если денег на проект выделено приблизительно НОЛЬ
То эта заметка для Вас.
Идея:
- Ставим ненавистную некоторыми Ollama
- Закачиваем необходимые модели
- Раскидываем их по всем рабочим местам (чтоб был типовой набор)
- Ставим нечто типа ChatBox
- Радуемся!
И вроде всё гладко. НО!
- Ollama должна грузиться до логина пользователя
- Необходимо балансировать узлы с ollama, дабы иметь одну точку входа для общения с моделями
- Хорошо бы автоматизировать скан сети с активными нодами и скармливать их балансировщику
- Хорошо бы автоматизировать анализ перечня моделей на разных нодах с целью доустановки/удаления моделей
Вот для этого и родился набор скриптов автоматизирующих рутину.
Кому это интересно — https://github.com/NoIDXMV6/Install_Ollama_as_Service
Добро пожаловать!
Ollama as a Windows Service
Запускайте Ollama как фоновую службу Windows с автозапуском, управлением моделями и сетевым доступом.
Установка и обслуживание Ollama как службы в Windows
Этот набор скриптов позволяет:
- Установить Ollama как службу Windows
- Проверить и автоматически установить обновления или первоначально установить ollama
- Обновить установленные модели
- Сканировать сеть на наличие Ollama-узлов и генерировать балансировщик нагрузки
Скрипты написаны на PowerShell и предназначены для Windows 10/11.

Добавить комментарий