🤖 Opsy AI - Автоматическое Развертывание Kubernetes
Развертывайте приложения в Kubernetes простыми командами на естественном языке. Opsy AI понимает ваши требования и автоматически создает production-ready конфигурации за секунды.
Opsy AI - это революционная система автоматического развертывания, которая использует искусственный интеллект для создания оптимальных Kubernetes конфигураций
Развертывайте приложения простыми командами на русском или английском языке:
"deploy backend to production""use configmap backend-prod""add ingress api.example.com""scale to 5 replicas""memory limit 2Gi; cpu limit 2000m"AI автоматически определяет тип проекта и оптимизирует конфигурацию:
Автоматически создает enterprise-grade конфигурации:
curl -X POST "$OPSY_API/command" \
-H "Content-Type: application/json" \
-d '{
"command": "deploy myapp to production",
"execute": true,
"image": "my-registry/myapp:v1.0"
}'
curl -X POST "$OPSY_API/command" \
-H "Content-Type: application/json" \
-d '{
"command": "deploy backend to production; use configmap backend-prod; add ingress api.example.com; memory limit 2Gi; cpu limit 2000m; replicas 3",
"execute": true,
"image": "my-registry/backend:v2.0"
}'
# 1. Dry-run (проверка конфигурации)
curl -X POST "$OPSY_API/command" \
-d '{"command": "deploy app to prod", "execute": false, "image": "app:v1.0"}'
# 2. Получить task_id и проверить values.yaml
curl "$OPSY_API/values/{task_id}"
# 3. Развертывание
curl -X POST "$OPSY_API/deploy" \
-d '{"task_id": "{task_id}", "app_name": "app", "namespace": "prod"}'
# 4. При ошибке - автоматический rollback
helm rollback app {previous-revision} -n prod
POST /command - Обработка команд на естественном языкеPOST /prepare-environment - Генерация конфигурацииPOST /deploy - Развертывание через HelmPOST /retry/{task_id} - Повтор неудачной задачиGET /status/{task_id} - Статус задачиGET /values/{task_id} - Получить values.yamlGET /stats - Статистика системыPOST /cleanup - Очистка старых задачPOST /detect-project - Определение типа проектаGET /healthz - Health checkGET /livez - Liveness probeGET /readyz - Readiness probeGET /metrics - Prometheus метрики
Использует локальные LLM для интеллектуальной генерации конфигураций. Понимает контекст и применяет best practices автоматически.
Развертывание простыми командами на естественном языке. Не нужно изучать YAML или Helm charts.
Генерирует enterprise-grade конфигурации с security best practices, health probes, resource limits и высокую доступность.
Поддерживает множество типов проектов. Все выходы валидируются через Helm charts перед развертыванием.
Автоматически применяет security best practices: non-root containers, seccomp profiles, network policies, RBAC.
Встроенный мониторинг через Prometheus метрики, health endpoints и автоматические health checks.
Opsy AI легко интегрируется с вашими GitLab CI/CD pipeline. Используйте переменные GitLab CI/CD прямо в командах.
deploy:
stage: deploy
script:
- |
curl -X POST "$OPSY_API/command" \
-H "Content-Type: application/json" \
-d "{
\"command\": \"deploy $CI_PROJECT_NAME to namespace $ENV; use configmap $CI_PROJECT_NAME-config; memory limit $MEMORY_LIMIT; cpu limit $CPU_LIMIT; add ingress $SERVICE_URL\",
\"execute\": true,
\"image\": \"$REGHOST/$CI_PROJECT_NAME:$CI_COMMIT_SHA\"
}"
✅ Переменные GitLab CI/CD ($CI_PROJECT_NAME, $ENV, $MEMORY_LIMIT и т.д.) автоматически подставляются в команду
✅ Не нужно использовать envsubst или шаблонизацию
✅ AI понимает переменные в контексте естественного языка
Хотите узнать, как Opsy AI может автоматизировать развертывание ваших приложений? Свяжитесь с нами!