Skip to main content
PROMPT SPACE
أدوات الذكاء الاصطناعي
10 min readUpdated

كيفية استخدام Claude Cowork مع النماذج المحلية: دليل الإعداد الكامل (2026)

شغّل Claude Cowork مع النماذج المحلية عبر Ollama مجانًا. إعداد خطوة بخطوة، أفضل النماذج، اختبارات الأداء، القيود، وجدول مقارنة كامل. لا حاجة لمفتاح API.

كيفية استخدام Claude Cowork مع النماذج المحلية: دليل الإعداد الكامل (2026)

هل تريد تشغيل Claude Cowork مع النماذج المحلية — مجانًا تمامًا، دون اتصال، وبخصوصية كاملة؟ منذ يناير 2026، يأتي Ollama v0.14 بدعم أصلي لتوافق واجهة Anthropic Messages API، أي أن أداة Claude الوكيلية لسطح المكتب تستطيع الآن التحدّث مباشرة إلى نماذج مفتوحة المصدر تعمل على عتادك. لا مفتاح API. لا اشتراك. ولا أي بيانات تغادر جهازك.

يغطي هذا الدليل كل شيء: التثبيت، الإعداد، اختيار النماذج، اختبارات الأداء، القيود، وجدول مقارنة كامل بين Claude السحابي والاستدلال المحلي. سواء كنت مطوّرًا قلقًا على الخصوصية أو شخصًا يريد استخدام Claude Cowork بلا حدود وبتكلفة صفرية — فهذا هو دليل الإعداد المرجعي لعام 2026.

💡
هل تستخدم أدوات البرمجة بالذكاء الاصطناعي بالفعل؟ اطّلع على مقارنة Cursor مقابل Windsurf مقابل Claude Code لترى موقع Cowork ضمن المشهد العام.

ما هو Claude Cowork؟

Claude Cowork هي أداة Anthropic الوكيلية لسطح المكتب التي تنقل قدرات Claude Code إلى Claude Desktop للأعمال المعرفية خارج البرمجة. فبدلًا من الإجابة عن المطالبات واحدة تلو الأخرى، يتولّى Claude مهام معقّدة متعدّدة الخطوات وينفّذها نيابةً عنك — تنسيق المستندات، تنظيم الملفات، تجميع الأبحاث، وأتمتة سير العمل.

القدرات الرئيسية

  • تنفيذ المهام متعدّدة الخطوات: صِف النتيجة المرجوّة، ابتعد، ثم عُد لتجد العمل قد اكتمل
  • الوصول إلى نظام الملفات: القراءة والكتابة وتنظيم الملفات على حاسوبك
  • المهام المجدولة: أتمتة الأعمال المتكرّرة (ميزة سحابية فقط)
  • المشاريع: مساحات عمل دائمة لها ملفّاتها وروابطها وتعليماتها وذاكرتها الخاصّة
  • الإضافات: توسيع الوظائف بالمهارات والموصِّلات والوكلاء الفرعيين
  • استخدام الحاسوب (Computer Use): التحكّم بتطبيقات سطح المكتب عبر الرؤية والنقر والكتابة

يعمل Cowork مباشرةً على حاسوبك داخل آلة افتراضية معزولة، ما يمنح Claude صلاحية الوصول إلى الملفات التي تختار مشاركتها. وتنفَّذ الشيفرة بأمان داخل بيئات معزولة (sandbox) بينما يُجري Claude تعديلات حقيقية على ملفّاتك.

لماذا تستخدم النماذج المحلية مع Claude Cowork؟

تشغيل Claude Cowork عبر واجهات API السحابية يكلّف مالًا ويُرسل بياناتك إلى خوادم خارجية. إليك سبب تغيير النماذج المحلية للمعادلة:

العاملClaude السحابيالنماذج المحلية
التكلفة20-200$ شهريًا (خطط Pro/Max)0$ بعد العتاد
الخصوصيةتُرسَل البيانات إلى خوادم Anthropicكل شيء يبقى على جهازك
حدود المعدّلسقوف استخدام، خاصةً مع مهام Cowork الثقيلةغير محدود — استخدم ما شئت
العمل دون اتصاليحتاج إنترنتيعمل دون اتصال تمامًا
إقامة البياناتقلق من النقل العابر للحدودتحكّم كامل بـ GDPR/الامتثال
السرعة60-80 رمز/ث8-25 رمز/ث (حسب العتاد)

المقايضة واضحة: النماذج المحلية تُضحّي بالسرعة مقابل الخصوصية وتوفير التكلفة والاستخدام غير المحدود. ولكثير من سير العمل — خاصةً ما يتضمن شيفرة حسّاسة، أو مستندات مملوكة، أو بيئات معزولة — تكون هذه المقايضة منطقية تمامًا.

المتطلبات المسبقة ومتطلبات العتاد

قبل إعداد النماذج المحلية مع Claude Cowork، تأكّد أن نظامك يلبّي هذه المتطلبات:

متطلبات البرمجيات

  • Ollama v0.14.0+ (مطلوب لتوافق Anthropic Messages API)
  • Claude Code CLI مُثبَّت عبر curl -fsSL https://claude.ai/install.sh | bash
  • macOS 13+ أو Windows 10+ أو Linux (يُنصح بـ Ubuntu 20.04+)

متطلبات العتاد

المستوىالعتادأفضل نموذجالتجربة
الحدّ الأدنى المقبول16 جيجابايت RAM (M1/M2) أو RTX 3060 12GBGLM-4.7-Flash (Q4)قابل للاستخدام لمهام الملف الواحد. أبطأ في العمليات المعقّدة.
المُوصى به32 جيجابايت RAM (M1 Pro/Max) أو RTX 4070 Ti 16GBQwen3-Coder 30B (Q4)متين لمعظم سير عمل البرمجة. متعدّد الملفات يعمل ولكن أبطأ.
الأمثل64+ جيجابايت RAM (M2/M3/M4 Max) أو RTX 4090 24GBQwen2.5-Coder-32B (Q6)أفضل تجربة محلية. كوانتزة أعلى وإنتاجية أسرع.

الإعداد خطوة بخطوة: Ollama + Claude Code

الخطوة 1: تثبيت Ollama

macOS (Homebrew):

terminal
brew install ollama

Linux:

terminal
curl -fsSL https://ollama.com/install.sh | sh

Windows: نزّل من ollama.com

تحقّق من التثبيت:

terminal
ollama --version
# يجب أن يكون v0.14.0 أو أحدث

الخطوة 2: سحب نموذج محلي

اختر نموذجًا يدعم استدعاء الأدوات (مطلوب لميزات Claude Code الوكيلية):

terminal
# الاختيار الأفضل — 30B MoE، 3B معلمات نشطة فقط، يعمل بـ 16GB RAM
ollama pull glm-4.7-flash

# بديل — نموذج برمجة قوي
ollama pull qwen3-coder

# خيار اقتصادي للأجهزة بـ 8GB
ollama pull devstral-small-2

الخطوة 3: تثبيت Claude Code

macOS/Linux:

terminal
curl -fsSL https://claude.ai/install.sh | bash

Windows:

terminal
irm https://claude.ai/install.ps1 | iex

الخطوة 4: ربط Claude Code بـ Ollama

الطريقة الأسرع — أمر واحد:

terminal
ollama launch claude

يضبط هذا تلقائيًا ANTHROPIC_AUTH_TOKEN وANTHROPIC_BASE_URL ويُشغّل Claude Code موجَّهًا إلى نسخة Ollama المحلية لديك. اختر نموذجك من القائمة واضغط Enter.

الطريقة اليدوية — متغيّرات بيئة صريحة:

terminal
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434

# تشغيل Claude Code
claude

أو في سطر واحد دون تعديل ملف الـ shell:

terminal
ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_BASE_URL=http://localhost:11434 claude

الخطوة 5: التحقق من الاتصال

بمجرّد إقلاع Claude Code، جرّب أمرًا بسيطًا:

terminal
> Read the current directory and list all files

إن قام النموذج بقراءة الملفات وردّ بقوائم ملفات فعلية (بدلًا من مجرّد وصف ما سيفعله)، فاستدعاء الأدوات يعمل بشكل صحيح.

الإعداد عبر LM Studio

يوفّر LM Studio واجهة رسومية لإدارة النماذج المحلية:

  1. نزّل LM Studio من lmstudio.ai
  2. ابحث ونزّل GLM-4.7-Flash أو Qwen3-Coder
  3. انتقل إلى تبويب Local Server ← Start Server (المنفذ الافتراضي: 1234)
  4. أعدّ Claude Code:
terminal
export ANTHROPIC_AUTH_TOKEN=lm-studio
export ANTHROPIC_BASE_URL=http://localhost:1234
claude

أفضل النماذج المحلية لـ Claude Cowork

النموذجالمعلماتالسياقاستدعاء الأدواتRAM/VRAM المطلوبةالأنسب لـ
GLM-4.7-Flash ⭐30B MoE (3B نشط)128Kنعم (79.5%)~6.5GB (Q4)أفضل توازن بين السرعة والقدرة
Qwen3-Coder30B128Kنعم~20GB (Q4)مهام برمجة قوية
GPT-OSS:20B20B32Kنعم~12GB (Q4)أغراض عامّة جيّدة
Devstral-Small-224B128Kنعم~16GB (Q4)مهام مُركّزة على الشيفرة
Qwen2.5-Coder:32B32B128Kمحدود~24GB (Q4)برمجة معقّدة (يحتاج عتادًا قويًا)

التوصية الأبرز: GLM-4.7-Flash. بنيته القائمة على "خليط الخبراء" تعني أن 3B معلمات فقط تنشط لكل رمز رغم كونه نموذج 30B. يُترجَم ذلك إلى استدلال سريع على عتاد متواضع (16GB RAM) مع الحفاظ على سياق 128K واستدعاء أدوات قوي (79.5% في اختبارات الوكلاء).

نماذج سحابية مجانية عبر Ollama

لا تريد تشغيل الاستدلال محليًا؟ يقدّم Ollama أيضًا نماذج سحابية مجانية بحدود معدّل سخيّة:

النموذجالسياقالسرعةالتكلفة
qwen3.5:cloud128K+30-60 رمز/ثمجاني (محدود المعدّل)
glm-5:cloud128K+30-60 رمز/ثمجاني (محدود المعدّل)
kimi-k2.5:cloud128K+30-60 رمز/ثمجاني (محدود المعدّل)
qwen3-coder:480b-cloud128K+30-60 رمز/ثمجاني (محدود المعدّل)
terminal
# استخدام نموذج سحابي مجاني عبر Ollama
ollama launch claude --model qwen3.5:cloud

تعمل هذه النماذج على بنية تحتية بعيدة لكنّها تستخدم واجهة Ollama نفسها. شيفرتك ما زالت تذهب إلى خوادم خارجية (ليست خاصّة فعلًا)، لكنها مجانية وأسرع بكثير من الاستدلال المحلي.

المقارنة الكاملة: Claude السحابي مقابل النماذج المحلية

الجانبClaude السحابي (Sonnet/Opus)النماذج المحلية (Ollama)نماذج Ollama Cloud
السرعة60-80 رمز/ث8-25 رمز/ث30-60 رمز/ث
جودة الشيفرةدقّة تحرير 98%دقّة تحرير 70-80%دقّة تحرير 85-95%
الاستدلال متعدّد الملفاتممتازمتوسّط (يضعف مع التعقيد)جيّد
استدعاء الأدواتموثوق دائمًايعتمد على النموذج (GLM الأفضل)موثوق
التكلفة الشهرية20-200$0$ (الكهرباء فقط)0$
الخصوصيةتُرسَل البيانات إلى Anthropicمحلي 100%تُرسَل البيانات إلى مزوّد النموذج
العمل دون اتصاللانعملا
حدود المعدّلنعم (مهام Cowork الثقيلة تستهلك أكثر)لا توجدنعم (سخيّة)
المهام المجدولةنعملالا
استخدام الحاسوبنعملالا
الإضافاتدعم كاملمحدودمحدود
نافذة السياق200K+32K-128K (حسب النموذج)128K+

اختبارات الأداء

أرقام واقعية من اختبارات منشورة تقارن الاستدلال المحلي والسحابي:

إنتاجية الرموز

الإعدادرمز/ثملاحظات
Claude API (Sonnet 4)60-80بنية Anthropic التحتية
نموذج Ollama سحابي30-60يتفاوت حسب النموذج والحمل
RTX 4070 Ti Super (32B Q4)15-25GPU بـ 489$، 16GB VRAM
M1 Max 64GB (GLM-4.7-Flash)10-20ذاكرة Apple Silicon الموحّدة
RTX 3060 12GB (GLM-4.7-Flash)8-15GPU اقتصادي

توقيت المهام الواقعية

المهمّةClaude السحابيGLM-4.7 محلي (M1 Max)الفارق
قراءة وتحرير ملف بسيط~3 ثوانٍ~15 ثانيةأبطأ بـ 5 أضعاف
إعادة هيكلة متعدّدة الملفات~1 دقيقة~12 دقيقةأبطأ بـ 12 ضعفًا
تحليل مستودع كامل~1.2 دقيقة~82 دقيقةأبطأ بـ 68 ضعفًا

درجات جودة البرمجة (اختبار 50 مهمّة)

نوع المهمّةGLM-4.7-FlashQwen3-CoderClaude Sonnet السحابي
توليد الدوال3.9/54.1/54.4/5
كشف الأخطاء3.5/53.8/54.6/5
إعادة الهيكلة3.7/54.0/54.3/5
السياق متعدّد الملفات2.5/52.8/54.5/5
شرح الشيفرة4.0/54.2/54.1/5

تحليل التكلفة

الخيارتكلفة مبدئيةشهريًاإجمالي 6 أشهرإجمالي 12 شهرًا
خطّة Claude Pro0$20$120$240$
خطّة Claude Max0$100-200$600-1,200$1,200-2,400$
GPU محلي (RTX 4070 Ti)489$8-12$ (كهرباء)537-561$585-633$
محلي (Apple Silicon، Mac حالي)0$3-5$ (كهرباء)18-30$36-60$
نماذج Ollama Cloud0$0$0$0$

نقطة التعادل: مستخدم Claude Max الكثيف (200$ شهريًا) يستردّ تكلفة GPU في 2.5 أشهر فقط. وحتى مستخدمو Claude Pro (20$ شهريًا) يحقّقون التعادل خلال 6-8 أشهر إذا كانوا يملكون أصلًا عتادًا قادرًا.

قيود النماذج المحلية

كن واقعيًا حول ما لا تستطيع النماذج المحلية فعله:

  • استدلال أبطأ (3-68 ضعفًا): المهام البسيطة تستغرق 5 أضعاف. وتحليل المستودع المعقّد قد يصل إلى 68 ضعفًا مقارنة بـ Claude السحابي.
  • دقّة تحرير أقل (70-80% مقابل 98%): النماذج المحلية تنتج رقعات بأرقام أسطر خاطئة، ومسافات بيضاء سيّئة، وسياقات غير مطابقة. على مدى جلسة من 50 تعديلًا، ستقضي وقتًا في إصلاح الرقعات المعطوبة أكثر من كتابة الشيفرة.
  • استدلال متعدّد الملفات أضعف: Claude السحابي يبرع في فهم العلاقات داخل قواعد الشيفرة الكبيرة. أما النماذج المحلية فتتدهور بشكل ملحوظ مع التعقيد.
  • موثوقية استدعاء الأدوات: ليست كل النماذج تدعمها. وبدونها، يصبح Claude Code مولّد نص يصف الإجراءات بدلًا من تنفيذها.
  • لا مهام مجدولة: الأعمال الآلية المتكرّرة لا تعمل إلا مع Cowork السحابي.
  • لا استخدام للحاسوب: التحكّم بسطح المكتب (النقر، الكتابة في التطبيقات) يتطلّب Claude السحابي.
  • لا إضافات: معظم إضافات Cowork تتطلّب بنية تحتية سحابية.
  • حدود نافذة السياق: النماذج المحلية تصل عادةً إلى 128K رمز كحدّ أقصى مقابل 200K+ في Claude السحابي.
  • استدعاء الأدوات بالبثّ يحتاج Ollama 0.14.3-rc1+: الإصدار المستقرّ قد لا يعالج جميع سيناريوهات استخدام الأدوات بشكل صحيح.

ما الذي يصبح ممكنًا مع النماذج المحلية

رغم القيود، تفتح النماذج المحلية إمكانات هامّة:

  • تطوير 100% دون اتصال: اكتب الشيفرة على الطائرات، في المقاهي بدون WiFi، أو في الشبكات المقيّدة.
  • خصوصية بيانات تامّة: الشيفرة المملوكة، البيانات الشخصية، السجلّات الطبية، عقود الدفاع — لا شيء يغادر جهازك.
  • الامتثال لـ GDPR: ألغِ مخاوف نقل البيانات عبر الحدود تمامًا. لا حاجة لاتفاقيات DPA.
  • البيئات المعزولة: منظّمات الدفاع والرعاية الصحية والحكومة يمكنها استخدام مساعدة الذكاء الاصطناعي في البرمجة دون وصول إلى الشبكة.
  • استخدام غير محدود: لا حدود معدّل، لا سقوف شهرية، لا خنق للسرعة عند الاستخدام الكثيف.
  • نماذج معايَرة مخصّصة: درّب نماذج على شيفرة مشروعك للحصول على مساعدة خاصّة بمجالك.
  • سير عمل هجين: استخدم المحلي للأعمال الحسّاسة، والسحابي للمهام المعقّدة. التبديل فوري.
  • تجريب صفري التكلفة: جرّب نماذج وأساليب ومطالبات مختلفة دون مراقبة عدّاد الفواتير.

استكشاف الأخطاء وإصلاحها

خطأ "Connection refused"

  • تأكّد أن Ollama يعمل: ollama serve
  • تحقّق أن المنفذ غير محجوب: curl http://localhost:11434/api/tags
  • تحقّق من إصدار Ollama: ollama --version (يجب أن يكون 0.14.0+)

النموذج يتحدّث فقط بدلًا من التنفيذ

إذا ردّ Claude Code بـ "I would read the file..." بدلًا من قراءته فعلًا، فاستدعاء الأدوات لا يعمل:

  • انتقل إلى نموذج بدعم أدوات مؤكّد: GLM-4.7-Flash أو أي نموذج سحابي
  • حدّث Ollama إلى 0.14.3-rc1+ لاستدعاء الأدوات بالبثّ
  • تأكّد أن ANTHROPIC_AUTH_TOKEN مضبوط على ollama وليس مفتاح API حقيقي

توليد بطيء (أقل من 5 رمز/ث)

  • اخفض إلى كوانتزة أصغر: Q4_K_M بدل Q6_K
  • قلّص السياق: ollama run glm-4.7-flash --num-ctx 32768
  • انتقل إلى GLM-4.7-Flash إن كنت تستخدم نموذجًا كثيفًا (MoE = أسرع)
  • فكّر في نماذج Ollama السحابية: ollama launch claude --model qwen3.5:cloud

فشل طلبات "Role model"

يحاول Claude Code استخدام "haiku" للمهام الخلفية. أصلح الأمر بضبط تجاوز النموذج الصغير في إعدادات Claude Code لاستخدام النموذج المحلي نفسه.

الأسئلة الشائعة

هل يمكنني استخدام Claude Cowork دون اتصال تمامًا مع النماذج المحلية؟

نعم. بمجرّد سحب نموذجك عبر Ollama، يعمل كل شيء محليًا. لا حاجة للإنترنت للاستدلال. لكن بعض ميزات Cowork (المهام المجدولة، الإضافات، استخدام الحاسوب) سحابية فقط ولن تعمل دون اتصال.

هل هو مجاني فعلًا؟

تشغيل النماذج المحلية عبر Ollama مجاني تمامًا. لا مفاتيح API، لا فواتير، لا اشتراك. كذلك نماذج Ollama السحابية (مثل qwen3.5:cloud) مجانية بحدود معدّل سخيّة. التكلفة الوحيدة للاستدلال المحلي الحقيقي هي العتاد والكهرباء.

ما أفضل نموذج لـ Claude Code مع Ollama؟

GLM-4.7-Flash هو التوصية الأبرز: سياق 128K، استدعاء أدوات أصلي (79.5% في الاختبار)، ويعمل بـ 16GB RAM بفضل بنية خليط الخبراء. ولنماذج Ollama السحابية، يقدّم Qwen 3.5 وGLM-5 جودة على مستوى الجبهة بتكلفة صفرية.

كم يكون المحلي أبطأ من السحابي؟

توقّع 3-5 أضعاف للمهام البسيطة، وحتى 68 ضعفًا للتحليل المعقّد متعدّد الملفات. فجوة السرعة هي المقايضة الرئيسية. لكن لكثير من مهام الملف الواحد (شرح الشيفرة، تعديلات بسيطة، التوثيق)، يكون التأخير محتملًا (10-20 ثانية مقابل 3-5 ثوانٍ).

هل يمكنني التبديل بين النماذج المحلية والسحابية؟

نعم. استخدم النماذج المحلية للأعمال الحسّاسة/الخاصّة وClaude السحابي للمهام المعقّدة. يمكنك التبديل ببساطة بتغيير متغيّرات البيئة أو باستخدام ملفّات شخصية منفصلة للطرفيّة.

هل تضاهي الجودة Claude السحابي؟

لا. تسجّل النماذج المحلية 85-90% من جودة Claude السحابي في مهام الملف الواحد، لكن أسوأ بكثير في الاستدلال متعدّد الملفات (50-60% من جودة السحابي). دقّة التحرير تنخفض من 98% إلى 70-80%، أي حاجة لمزيد من التصحيحات اليدوية.

الخلاصة

Claude Cowork مع النماذج المحلية ليس بديلًا عن Claude السحابي — بل مكمّل له. سير العمل المثالي في 2026 يبدو هكذا:

  • النماذج المحلية ← قواعد الشيفرة الحسّاسة، التجريب غير المحدود، العمل دون اتصال، البيئات التي تضع الخصوصية أولًا
  • نماذج Ollama السحابية ← مجاني، أسرع من المحلي، جودة جيّدة، مقبول للأعمال غير الحسّاسة
  • Claude السحابي ← الاستدلال المعقّد متعدّد الملفات، الأتمتة المجدولة، استخدام الحاسوب، أقصى جودة

الإعداد يستغرق 5 دقائق. التكلفة صفر. إن كان لديك Mac بـ 16GB+ من الذاكرة أو GPU بـ 12GB+ من VRAM، فلا داعي لعدم تجربته. ابدأ بـ ollama pull glm-4.7-flash وollama launch claude — ستجد نفسك تبرمج مع وكيل ذكاء اصطناعي محلي خلال أقل من دقيقة.

لمزيد من أدوات البرمجة بالذكاء الاصطناعي، تصفّح مراجعة Claude Opus 4.6 ومولّد الصور بالذكاء الاصطناعي المجاني.

Tags:#Claude Cowork#النماذج المحلية#Ollama#Claude Code#البرمجة بالذكاء الاصطناعي#أدوات ذكاء اصطناعي مجانية#ذكاء اصطناعي دون اتصال#Claude لسطح المكتب
S

Creator of PromptSpace · AI Researcher & Prompt Engineer

Building the largest free AI prompt library with 4,000+ prompts. Covering AI image generation, prompt engineering, and tool comparisons since 2024. 159+ articles published.

Related Articles

Explore More Articles

Free AI Prompts

Ready to Create Stunning AI Art?

Browse 4,000+ free, tested prompts for Midjourney, ChatGPT, Gemini, DALL-E & more. Copy, paste, create.