Open WebUI: تشغيل واجهة الذكاء الاصطناعي الخاصة بك محليًا وفي السحابة
إعداد Open WebUI للتطوير المحلي والنشر السحابي — مقارنة واجهات الذكاء الاصكناعي المستضافة ذاتيًا بالبدائل التجارية.

كل مطور أعرفه لديه على الأقل ثلاث علامات تبويب لدردشة الذكاء الاصطناعي مفتوحة في أي وقت. ChatGPT لشيء، Claude لآخر، وربما نافذة Gemini للمهام متعددة الوسائط. لكل منها سجل محادثاته الخاص، وسياقه الخاص، وفواتيره الخاصة. التبديل بينها هو احتكاك تتوقف عن ملاحظته حتى يختفي.
يزيل Open WebUI هذا الاحتكاك. إنها واجهة مستضافة ذاتيًا تتصل بالعديد من الواجهات الخلفية للذكاء الاصطناعي — نماذج محلية عبر Ollama، واجهات برمجة تطبيقات سحابية مثل OpenAI و Anthropic، أو أي نقطة نهاية متوافقة مع OpenAI. واجهة واحدة، سجل محادثات واحد، مكان واحد لإدارة كل شيء. ولأنك تستضيفها بنفسك، فإن بياناتك لا تغادر بنيتك التحتية أبدًا إلا إذا أرسلتها صراحةً إلى واجهة برمجة تطبيقات سحابية.
ما هو Open WebUI
Open WebUI (المعروف سابقًا باسم Ollama WebUI) هو واجهة ويب مفتوحة المصدر ومستضافة ذاتيًا للتفاعل مع نماذج اللغة الكبيرة. بدأت كواجهة أمامية لـ Ollama — الأداة التي تشغل نماذج LLM محليًا — ولكنها تطورت إلى منصة ذكاء اصطناعي كاملة الميزات تدعم:
- واجهات خلفية متعددة للنماذج (Ollama، OpenAI، Anthropic، أي واجهة برمجة تطبيقات متوافقة مع OpenAI)
- سجل المحادثات مع البحث والتنظيم
- RAG (التوليد المعزز بالاسترجاع) مع تحميل المستندات
- إعدادات مسبقة مخصصة للنماذج ومطالبات النظام
- إدارة المستخدمين وضوابط الوصول للفريق
- استدعاء الوظائف واستخدام الأدوات
- تكامل توليد الصور
- إدخال وإخراج الصوت
إنه ليس مشروعًا ترفيهيًا. الواجهة مصقولة، ومجموعة الميزات شاملة، والمجتمع نشط. وقت كتابة هذا المقال، يحتوي مستودع GitHub على أكثر من 75,000 نجمة ومعدل إصدار تقريبي كل أسبوعين.
القيمة الحقيقية المقترحة هي التحكم. أنت تقرر أين يعمل، وما هي النماذج التي يتصل بها، ومن لديه حق الوصول، وأين تذهب البيانات. بالنسبة للمطورين الذين يعملون مع تعليمات برمجية حساسة، أو بيانات عمل خاصة، أو صناعات منظمة، فإن هذا يهم أكثر من أي مقارنة للميزات.
الإعداد المحلي باستخدام Docker
أسرع طريقة لتشغيل Open WebUI محليًا هي Docker. أمر واحد، لا توجد تبعيات لتثبيتها، ولا ملفات تهيئة لكتابتها:
docker run -d \
-p 3000:8080 \
-v open-webui:/app/backend/data \
--name open-webui \
ghcr.io/open-webui/open-webui:main
هذا كل شيء. افتح http://localhost:3000 في متصفحك، أنشئ حساب مسؤول، وستحصل على واجهة ذكاء اصطناعي عاملة. تُنشئ العلامة -v open-webui:/app/backend/data وحدة تخزين Docker للتخزين الدائم — محادثاتك وإعداداتك ومستنداتك المحملة تبقى بعد إعادة تشغيل الحاوية.
الاتصال بـ Ollama
لاستخدام النماذج المحلية، تحتاج إلى تشغيل Ollama على جهازك. قم بتثبيته من ollama.com، ثم اسحب نموذجًا:
ollama pull llama3.1
ollama pull codellama
ollama pull mistral
إذا كان Open WebUI و Ollama يعملان على نفس الجهاز، يكتشف Open WebUI تلقائيًا Ollama على http://host.docker.internal:11434 (على macOS و Windows) أو http://localhost:11434 (على Linux مع --network host).
بالنسبة لنظام Linux، يحتاج أمر Docker إلى وضع شبكة المضيف للوصول إلى Ollama:
docker run -d \
-p 3000:8080 \
--network host \
-v open-webui:/app/backend/data \
--name open-webui \
ghcr.io/open-webui/open-webui:main
بمجرد الاتصال، يظهر كل نموذج قمت بسحبه في Ollama في القائمة المنسدلة للنماذج في Open WebUI. يمكنك التبديل بينها في منتصف المحادثة، ومقارنة المخرجات، وتعيين مطالبات نظام لكل نموذج.
الاتصال بواجهات برمجة التطبيقات السحابية
يتصل Open WebUI أيضًا بمقدمي النماذج السحابية. في إعدادات المسؤول ضمن "Connections" (الاتصالات)، أضف مفاتيح API الخاصة بك:
- OpenAI: أضف مفتاح API الخاص بك وستصبح جميع نماذج GPT متاحة
- Anthropic: أضف مفتاح API الخاص بك لنماذج Claude (عبر وكيل متوافق مع OpenAI أو تكامل مباشر حسب الإصدار)
- نقاط نهاية مخصصة: أي خدمة تعرض واجهة برمجة تطبيقات متوافقة مع OpenAI — Azure OpenAI، Together AI، Groq، مثيلات vLLM المحلية
هنا يصبح Open WebUI مفيدًا حقًا كأداة يومية. تحصل على واجهة واحدة لنماذج Llama المحلية (مجانية، خاصة، جيدة للتجريب) ونماذج سحابية (أكثر قدرة، فواتير قائمة على الاستخدام). تنخفض تكلفة تبديل السياق إلى الصفر — ما عليك سوى تغيير النموذج في القائمة المنسدلة.
Docker Compose لمكدس كامل
لإعداد محلي أكثر قوة، استخدم Docker Compose لتشغيل Open WebUI و Ollama معًا:
# docker-compose.yml
version: "3.8"
services:
ollama:
image: ollama/ollama
container_name: ollama
ports:
- "11434:11434"
volumes:
- ollama-data:/root/.ollama
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [gpu]
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
ports:
- "3000:8080"
volumes:
- open-webui-data:/app/backend/data
environment:
- OLLAMA_BASE_URL=http://ollama:11434
depends_on:
- ollama
volumes:
ollama-data:
open-webui-data:
docker compose up -d
قسم حجز وحدة معالجة الرسوميات (GPU) اختياري — قم بإزالته إذا كنت تعمل على وحدة المعالجة المركزية (CPU) فقط. على أجهزة Mac المزودة بمعالجات Apple Silicon، يستخدم Ollama إطار عمل Metal GPU تلقائيًا دون تمرير GPU عبر Docker (قم بتشغيل Ollama محليًا على macOS بدلاً من Docker للحصول على أفضل أداء).
خيارات النشر السحابي
يعد تشغيل Open WebUI محليًا رائعًا للاستخدام الفردي. ولكن عندما تريد أن يصل فريقك إليه، أو عندما تريد استخدامه من أي جهاز، فأنت بحاجة إلى نشر سحابي.
نشر VPS (Hetzner، DigitalOcean، إلخ.)
أبسط مسار سحابي هو خادم افتراضي خاص (VPS) مثبت عليه Docker. خادم بقيمة 20 دولارًا شهريًا من Hetzner أو DigitalOcean يكفي لواجهة Open WebUI نفسها. إذا كنت ترغب في تشغيل النماذج على الخادم أيضًا، فستحتاج إلى مثيل GPU (50-150 دولارًا شهريًا حسب وحدة معالجة الرسوميات).
# On your VPS
apt update && apt install docker.io docker-compose-plugin -y
# Create docker-compose.yml (same as above, minus GPU reservation)
docker compose up -d
# Set up a reverse proxy with SSL
apt install nginx certbot python3-certbot-nginx -y
تهيئة وكيل Nginx العكسي:
server {
server_name ai.yourdomain.com;
location / {
proxy_pass http://localhost:3000;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection "upgrade";
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
}
}
ثم certbot --nginx -d ai.yourdomain.com للحصول على شهادة SSL مجانية من Let's Encrypt. لديك الآن واجهة ذكاء اصطناعي خاصة ومؤمنة بشهادة SSL يمكن الوصول إليها من أي مكان.
نشر Railway / Fly.io
للنشر المدار بدون إدارة الخادم:
# Using Railway
railway login
railway init
railway up
أو مع Fly.io:
fly launch --image ghcr.io/open-webui/open-webui:main
fly secrets set OLLAMA_BASE_URL=http://your-ollama-server:11434
fly deploy
تتعامل هذه المنصات مع SSL والتوسع وإعادة التشغيل تلقائيًا. المقايضة هي تحكم أقل في البنية التحتية وتكلفة أعلى عند التوسع مقارنة بالخادم الافتراضي الخاص (VPS).
قرار البنية: أين يتم تشغيل النماذج
القرار المعماري الرئيسي للنشر السحابي هو ما إذا كنت ستشغل النماذج على نفس الخادم الذي يعمل عليه Open WebUI أو تتصل بمقدمي واجهات برمجة التطبيقات الخارجية.
- نفس الخادم: زمن استجابة أقل، لا توجد تكاليف API لكل رمز، خصوصية كاملة للبيانات. لكنك تحتاج إلى خادم مزود بوحدة معالجة رسوميات (GPU) (100-300 دولار شهريًا لمثيل GPU لائق)، واختيار النموذج محدود بحدود جهازك.
- واجهات برمجة تطبيقات خارجية فقط: لا حاجة لوحدة معالجة رسوميات (GPU)، وصول إلى أفضل النماذج من كل مزود، الدفع لكل رمز. خادم Open WebUI خفيف الوزن ورخيص الاستضافة. لكن كل محادثة تمر عبر واجهة برمجة تطبيقات تابعة لجهة خارجية، وتتزايد التكاليف مع الاستخدام.
- هجين: تشغيل نموذج محلي للمهام الروتينية والعمل الحساس للخصوصية، والاتصال بواجهات برمجة التطبيقات السحابية للمهام التي تتطلب نماذج أكثر قدرة. هذا ما أستخدمه — Llama 3.1 للأسئلة السريعة وإكمال التعليمات البرمجية حيث تكون الخصوصية مهمة، Claude أو GPT-4o لمهام التفكير والتوليد المعقدة.
مقارنة بالواجهات التجارية
ChatGPT Plus (20 دولارًا شهريًا)
يمنحك ChatGPT نماذج GPT-4o، وتكامل DALL-E، والتصفح، ومفسر التعليمات البرمجية، وGPTs المخصصة. الواجهة مصقولة وتطبيق الهاتف المحمول ممتاز.
حيث يتفوق Open WebUI: مرونة النموذج (لست مقيدًا بـ OpenAI)، خصوصية البيانات (تبقى المحادثات على خادمك)، التخصيص (مطالبات نظام مخصصة، مسارات RAG، استدعاء الوظائف). لا توجد قيود على استخدام النماذج المحلية.
حيث يتفوق ChatGPT: تكامل الأدوات الأصلية، بيئة مفسر التعليمات البرمجية المعزولة (sandbox)، تجربة الهاتف المحمول، عدم الحاجة إلى إعداد. لا يوجد ما يعادل نظام المكونات الإضافية ومتجر GPT في Open WebUI.
الخلاصة: يصعب التغلب على ChatGPT Plus للمستخدمين غير التقنيين الذين يرغبون في تجربة جاهزة للاستخدام. Open WebUI أفضل للمطورين الذين يريدون التحكم والمرونة.
Claude Pro (20 دولارًا شهريًا)
يمنحك Claude Pro نماذج Claude Sonnet و Opus مع نوافذ سياق موسعة، وإنشاء القطع الأثرية، ومشاريع ذات سياق دائم. يعد اتباع تعليمات Claude ومعالجة المستندات الطويلة الأفضل في فئته.
حيث يتفوق Open WebUI: لا يزال بإمكانك استخدام نماذج Claude عبر واجهة برمجة التطبيقات مع الوصول إلى كل نموذج آخر. أنت تمتلك سجل محادثاتك. يمكنك إضافة RAG وأ