نشر أسطول وكلاء الذكاء الاصطناعي
استخدم هذه الصفحة عندما تريد تشغيل AuroraSOC مع المنسق والوكلاء المتخصصين، وليس فقط واجهة العرض الأولية الموجودة في البدء السريع.
متى تستخدم هذه الصفحة
- عندما تريد تحليلات فعلية مدعومة بالنماذج بدلًا من سير العمل التجريبي فقط.
- عندما تحتاج إلى إعداد محلي يمكن تكراره مع التحقق بعد كل مرحلة رئيسية.
- عندما تريد اختيارًا صريحًا بين مسار Ollama المحلي ومسار vLLM المعتمد على GPU.
نظرة سريعة قبل البدء
قبل اختيار مسار النشر، تأكد من الآتي:
- وجود Python 3.12+ و Node.js 22+ و Git.
- توفر Podman 5+ أو Docker 24+.
- توفر ملف
.envصالح عبرmake env-initثمmake env-check. - البدء بقيمة آمنة مثل
SYSTEM_MODE=dummyأوSYSTEM_MODE=dry_run.
القيم الأساسية المشتركة في .env:
SYSTEM_MODE=dummy
ENABLED_AGENTS=all
CORS_ORIGINS=http://localhost:3000,http://localhost:3001
مسارات النشر
| المسار | الأنسب لـ | شكل التشغيل | الملاحظات |
|---|---|---|---|
| Ollama local-first | عندما تريد أبسط مسار محلي لتشغيل النماذج أو لا تريد الاعتماد على حاويات GPU | خدمات البيانات المشتركة في Compose، بينما تعمل MCP و API واللوحة والوكلاء على المضيف | الأفضل للتصحيح والتطوير المحلي التكراري |
| vLLM GPU stack | عندما تريد أقرب شيء إلى النشر الكامل بالحاويات | API ولوحة التحكم والوكلاء و vLLM داخل Compose | يتطلب دعم NVIDIA GPU ورمز Hugging Face |
كلا المسارين يستخدمان المستودع نفسه وملف .env نفسه وتدفق تسجيل الدخول نفسه داخل لوحة التحكم.
المتطلبات الأساسية
- Podman أو Docker لحزمة الخدمات والبنية التحتية.
- PostgreSQL و Redis و NATS و Mosquitto عبر Compose.
- نموذج Granite مناسب للمسار الذي تختاره.
- سجل تشغيل لكل من MCP والوكلاء إذا كنت تعمل على المضيف.
خطوات الإعداد المشتركة
1. استنساخ المستودع
git clone https://github.com/ahmeddwalid/AuroraSOC
cd AuroraSOC
2. إنشاء البيئة والتحقق منها
make env-init
make env-check
3. اختيار الواجهة الخلفية للنماذج
- Ollama Local-First
- vLLM GPU Stack
خطوات Ollama المحلية
- ابدأ خدمات البيانات المشتركة:
podman compose -f docker-compose.dev.yml up -d
podman compose -f docker-compose.dev.yml ps
إذا كنت تستخدم Docker، فالأوامر المكافئة هي docker compose -f docker-compose.dev.yml ....
- ثبّت اعتماديات Python ولوحة التحكم وحدث قاعدة البيانات:
python3 -m venv .venv
source .venv/bin/activate
pip install -e ".[dev]"
alembic upgrade head
cd dashboard
npm install
cd ..
- شغّل Ollama واسحب نماذج Granite:
ollama serve
make ollama-pull-granite
-
ابدأ خوادم نطاقات MCP، ثم ابدأ API ولوحة التحكم، ثم ابدأ الوكلاء المتخصصين والمنسق حسب الترتيب الموضح في دليل تشغيل أسطول الوكلاء.
-
اضبط المتغيرات التالية للمسار المحلي:
LLM_BACKEND=ollama
OLLAMA_BASE_URL=http://localhost:11434
OLLAMA_MODEL=granite4:8b
OLLAMA_ORCHESTRATOR_MODEL=granite4:dense
MCP_CLIENT_HOST=localhost
A2A_CLIENT_HOST=localhost
النتيجة المتوقعة: تعمل لوحة التحكم على المنفذ 3000 وواجهة API على 8000 ويستمع المنسق على 9000.
خطوات vLLM بالحاويات
-
تأكد من وجود دعم NVIDIA GPU ورمز
HF_TOKENصالح. -
اضبط المتغيرات الخاصة بـ vLLM:
LLM_BACKEND=vllm
HF_TOKEN=hf_your_token_here
VLLM_HF_MODEL=ibm-granite/granite-4.1-8b
VLLM_MODEL=granite-soc-specialist
VLLM_ORCHESTRATOR_MODEL=granite-soc-specialist
SYSTEM_MODE=dry_run
- ابدأ المكدس بالحاويات:
podman compose -f docker-compose.yml -f docker-compose.gpu.yml --profile agents up -d
podman compose -f docker-compose.yml -f docker-compose.gpu.yml --profile agents ps
وإذا كنت تعمل عبر Docker، فاستخدم docker compose بدل podman compose.
- تحقّق من واجهة API ونقطة نهاية النموذج:
curl -s http://localhost:8000/health | python -m json.tool
curl -s http://localhost:8001/v1/models | python -m json.tool
- أبقِ
SYSTEM_MODE=dry_runحتى تنجح اختبارات النهاية إلى النهاية.
النتيجة المتوقعة: تعمل API ولوحة التحكم والوكلاء وواجهة vLLM ضمن حاويات Compose مع ملف تعريف agents.
فحوصات التحقق
بعد بدء المسار الذي اخترته، استخدم هذه الفحوصات:
curl -s http://localhost:8000/health | python -m json.tool
ss -ltn | grep -E ':8000|:3000|:9000'
ثم تحقّق من الآتي يدويًا:
- يمكنك تسجيل الدخول إلى لوحة التحكم.
- تظهر حالة المنصة والـ agents بدون أخطاء اكتشاف واضحة.
- تعمل تحقيقات التنبيهات دون تعليق بسبب غياب النموذج أو غياب MCP.
أعطال شائعة
الوكلاء المحليون لا يجدون خدمات MCP أو A2A
السبب المعتاد هو نسيان MCP_CLIENT_HOST=localhost أو A2A_CLIENT_HOST=localhost أثناء التشغيل المحلي.
لوحة التحكم تعمل لكن التحقيقات لا تبدأ
تحقّق من صحة الواجهة الخلفية للنموذج ومن سجلات MCP والوكلاء قبل افتراض أن المشكلة في الواجهة نفسها.
مسار vLLM يفشل بسبب GPU أو المنفذ
تأكد من تهيئة وقت تشغيل GPU وأن المنافذ المطلوبة غير مستخدمة من خدمة أخرى على المضيف.