Содержание
Есть инструменты, к которым я постоянно возвращаюсь в своей домашней лаборатории, и которые составляют основу того, что сейчас управляет моей лабораторной средой. Я использую эти инструменты для создания CI/CD-пайплайнов, запуска моделей ИИ и оркестрации контейнеров. В этом году я работал над множеством проектов, связанных с Kubernetes, Docker Swarm, самохостинговыми LLM, GitLab, системами мониторинга и другими. В этой статье я хочу поделиться своими любимыми инструментами для домашней лаборатории в 2025 году. Эти проекты действительно изменили то, как я управляю своей лабораторией или создаю автоматизацию для клиентов.
1. Docker Swarm + MicroCeph: Идеальный легковесный стек для высокой доступности
В этом году я углубился в изучение Docker Swarm, используя его не только как учебное пособие, но и как надежную платформу для размещения рабочих нагрузок. Но всё действительно встало на свои места, когда я добавил MicroCeph — минималистичную реализацию Ceph от Canonical — в кластер. Это дало мне хранилище с высокой доступностью для контейнеров без головной боли управления полноценными кластерами Ceph.
Почему мне это нравится:
- Беспроблемная интеграция с томами Docker
- Отлично работает с Portainer для визуального управления
- Легко реплицируется на три узла с Keepalived для отказоустойчивости VIP
Я написал подробное руководство по настройке Docker Swarm с MicroCeph и Portainer, что делает эту связку реальной альтернативой k3s или полноценным стекам Kubernetes в легковесных лабораториях.
2. Ollama + OpenWebUI: Локальные LLM, сделанные правильно
Ажиотаж вокруг генеративного ИИ не утих в 2025 году. И благодаря Ollama и OpenWebUI я смог запускать мощные локальные LLM, такие как Gemma, Phi и даже Mixtral, прямо на своих Proxmox-серверах.
Что выделяется:
- OpenWebUI предоставляет чистый интерфейс, похожий на ChatGPT
- Ollama упрощает загрузку, квантование и обслуживание моделей
- Проброс GPU в Proxmox для виртуальных машин или LXC-контейнеров отлично работает с правильными драйверами
Теперь я использую эту связку ежедневно для мозгового штурма, написания промптов и тестирования идей без оплаты API. Это быстро, приватно и очень легко масштабируется. Я даже написал статью о том, как хостить свой собственный GPT с помощью Docker и Proxmox, используя Ollama в качестве бэкенда.
3. GitLab + GitLab Runner на CephFS
У меня были непростые отношения с GitLab в прошлом, в основном из-за его ресурсоемкости. Но после настройки на Docker Swarm с томами на базе CephFS всё наконец встало на свои места, и это определенно один из моих любимых инструментов для домашней лаборатории в 2025 году.

Что мне нравится сейчас:
- CephFS предоставляет общее хранилище для GitLab, логов и сборок
- Docker-развертывание упрощает обновление и поддержку
- Я наконец решил проблемы с правами и ошибками 500, мешавшими моим пайплайнам
Эта настройка теперь управляет всеми моими автоматическими сборками контейнеров и CI-процессами. Кроме того, я начал документировать это в статье под названием «Оптимизация производительности GitLab с Docker Swarm и CephFS» — скоро выйдет.
4. Netdata: Мониторинг в реальном времени, который просто работает
Я много раз пробовал стеки Prometheus + Grafana, и хотя они мощные, они могут быть избыточны для небольших сред. Встречайте Netdata, который я теперь запускаю как в контейнерах, так и прямо на хостах. Это мой выбор для мониторинга состояния узлов, сервисов и даже Ceph в реальном времени.
Почему это победа:
- Мгновенная визуализация, не нужно строить дашборды
- Бесплатный SaaS-режим с просмотром нескольких узлов по лицензии для домашней лаборатории
- Встроенная поддержка экспорта метрик в Prometheus при необходимости
Версия на основе Docker отлично подходит для тестирования, но я также развернул полный агент с помощью скрипта Netdata kickstart для более глубокого мониторинга. Он даже собирает метрики Kubernetes, если вы используете MicroK8s или K3s.
2025 год стал прорывным для практичных инструментов ИИ в домашней лаборатории. Я увидел реальные преимущества, а не просто эффектные демонстрации. Они действительно могут улучшить автоматизацию, мониторинг и продуктивность, исходя из моего опыта. Я работал с несколькими инструментами на основе LLM, которые теперь составляют основу моего стека для работы с ИИ:
- Ollama + OpenWebUI – для запуска локальных LLM, таких как Gemma и Mixtral, в приватной, отзывчивой чат-среде.
- kubectl-ai – это мощное дополнение к стандартному kubectl от Google, которое позволяет интегрировать модель ИИ с вашей командной строкой kubectl.
- Windsurf – это платформа для автоматизации на основе событий с LLM, которая действует как ассистент для программирования прямо в интерфейсе VS Code. Вместо копирования и вставки кода из браузера она помогает в этом процессе, даже редактируя файлы и т.д.
Почему я продолжаю их использовать:
- Большинство из них можно самохостить или использовать с локальными API
- Они действительно решают реальные операционные проблемы (а не просто для новизны)
- Они модульные и легко комбинируются в рабочие процессы или скрипты
В заключение
Надеюсь, мои любимые инструменты для домашней лаборатории в 2025 году, перечисленные в этой статье, которые составляют основу того, что я использую для тестирования и экспериментов с различными технологиями, особенно контейнеризированными, дадут вам идеи, что попробовать дальше. Они позволяют мне изучать новые технологии и работать над идеями для новых проектов, которые я могу внедрить в домашней лаборатории.
Есть любимый инструмент, который вы открыли в 2025 году? Напишите в комментариях, давайте обсудим.