انتقل إلى المحتوى الرئيسي

نشر أسطول وكلاء الذكاء الاصطناعي

استخدم هذه الصفحة عندما تريد تشغيل AuroraSOC مع المنسق والوكلاء المتخصصين، وليس فقط واجهة العرض الأولية الموجودة في البدء السريع.

متى تستخدم هذه الصفحة

  • عندما تريد تحليلات فعلية مدعومة بالنماذج بدلًا من سير العمل التجريبي فقط.
  • عندما تحتاج إلى إعداد محلي يمكن تكراره مع التحقق بعد كل مرحلة رئيسية.
  • عندما تريد اختيارًا صريحًا بين مسار Ollama المحلي ومسار vLLM المعتمد على GPU.

نظرة سريعة قبل البدء

قبل اختيار مسار النشر، تأكد من الآتي:

  • وجود Python 3.12+ و Node.js 22+ و Git.
  • توفر Podman 5+ أو Docker 24+.
  • توفر ملف .env صالح عبر make env-init ثم make env-check.
  • البدء بقيمة آمنة مثل SYSTEM_MODE=dummy أو SYSTEM_MODE=dry_run.

القيم الأساسية المشتركة في .env:

SYSTEM_MODE=dummy
ENABLED_AGENTS=all
CORS_ORIGINS=http://localhost:3000,http://localhost:3001

مسارات النشر

المسارالأنسب لـشكل التشغيلالملاحظات
Ollama local-firstعندما تريد أبسط مسار محلي لتشغيل النماذج أو لا تريد الاعتماد على حاويات GPUخدمات البيانات المشتركة في Compose، بينما تعمل MCP و API واللوحة والوكلاء على المضيفالأفضل للتصحيح والتطوير المحلي التكراري
vLLM GPU stackعندما تريد أقرب شيء إلى النشر الكامل بالحاوياتAPI ولوحة التحكم والوكلاء و vLLM داخل Composeيتطلب دعم NVIDIA GPU ورمز Hugging Face

كلا المسارين يستخدمان المستودع نفسه وملف .env نفسه وتدفق تسجيل الدخول نفسه داخل لوحة التحكم.

المتطلبات الأساسية

  • Podman أو Docker لحزمة الخدمات والبنية التحتية.
  • PostgreSQL و Redis و NATS و Mosquitto عبر Compose.
  • نموذج Granite مناسب للمسار الذي تختاره.
  • سجل تشغيل لكل من MCP والوكلاء إذا كنت تعمل على المضيف.

خطوات الإعداد المشتركة

1. استنساخ المستودع

git clone https://github.com/ahmeddwalid/AuroraSOC
cd AuroraSOC

2. إنشاء البيئة والتحقق منها

make env-init
make env-check

3. اختيار الواجهة الخلفية للنماذج

خطوات Ollama المحلية

  1. ابدأ خدمات البيانات المشتركة:
podman compose -f docker-compose.dev.yml up -d
podman compose -f docker-compose.dev.yml ps

إذا كنت تستخدم Docker، فالأوامر المكافئة هي docker compose -f docker-compose.dev.yml ....

  1. ثبّت اعتماديات Python ولوحة التحكم وحدث قاعدة البيانات:
python3 -m venv .venv
source .venv/bin/activate
pip install -e ".[dev]"
alembic upgrade head

cd dashboard
npm install
cd ..
  1. شغّل Ollama واسحب نماذج Granite:
ollama serve
make ollama-pull-granite
  1. ابدأ خوادم نطاقات MCP، ثم ابدأ API ولوحة التحكم، ثم ابدأ الوكلاء المتخصصين والمنسق حسب الترتيب الموضح في دليل تشغيل أسطول الوكلاء.

  2. اضبط المتغيرات التالية للمسار المحلي:

LLM_BACKEND=ollama
OLLAMA_BASE_URL=http://localhost:11434
OLLAMA_MODEL=granite4:8b
OLLAMA_ORCHESTRATOR_MODEL=granite4:dense
MCP_CLIENT_HOST=localhost
A2A_CLIENT_HOST=localhost

النتيجة المتوقعة: تعمل لوحة التحكم على المنفذ 3000 وواجهة API على 8000 ويستمع المنسق على 9000.

فحوصات التحقق

بعد بدء المسار الذي اخترته، استخدم هذه الفحوصات:

curl -s http://localhost:8000/health | python -m json.tool
ss -ltn | grep -E ':8000|:3000|:9000'

ثم تحقّق من الآتي يدويًا:

  • يمكنك تسجيل الدخول إلى لوحة التحكم.
  • تظهر حالة المنصة والـ agents بدون أخطاء اكتشاف واضحة.
  • تعمل تحقيقات التنبيهات دون تعليق بسبب غياب النموذج أو غياب MCP.

أعطال شائعة

الوكلاء المحليون لا يجدون خدمات MCP أو A2A

السبب المعتاد هو نسيان MCP_CLIENT_HOST=localhost أو A2A_CLIENT_HOST=localhost أثناء التشغيل المحلي.

لوحة التحكم تعمل لكن التحقيقات لا تبدأ

تحقّق من صحة الواجهة الخلفية للنموذج ومن سجلات MCP والوكلاء قبل افتراض أن المشكلة في الواجهة نفسها.

مسار vLLM يفشل بسبب GPU أو المنفذ

تأكد من تهيئة وقت تشغيل GPU وأن المنافذ المطلوبة غير مستخدمة من خدمة أخرى على المضيف.

صفحات ذات صلة