هل تريد تشغيل Claude Cowork مع النماذج المحلية — مجانًا تمامًا، دون اتصال، وبخصوصية كاملة؟ منذ يناير 2026، يأتي Ollama v0.14 بدعم أصلي لتوافق واجهة Anthropic Messages API، أي أن أداة Claude الوكيلية لسطح المكتب تستطيع الآن التحدّث مباشرة إلى نماذج مفتوحة المصدر تعمل على عتادك. لا مفتاح API. لا اشتراك. ولا أي بيانات تغادر جهازك.
يغطي هذا الدليل كل شيء: التثبيت، الإعداد، اختيار النماذج، اختبارات الأداء، القيود، وجدول مقارنة كامل بين Claude السحابي والاستدلال المحلي. سواء كنت مطوّرًا قلقًا على الخصوصية أو شخصًا يريد استخدام Claude Cowork بلا حدود وبتكلفة صفرية — فهذا هو دليل الإعداد المرجعي لعام 2026.
ما هو Claude Cowork؟
Claude Cowork هي أداة Anthropic الوكيلية لسطح المكتب التي تنقل قدرات Claude Code إلى Claude Desktop للأعمال المعرفية خارج البرمجة. فبدلًا من الإجابة عن المطالبات واحدة تلو الأخرى، يتولّى Claude مهام معقّدة متعدّدة الخطوات وينفّذها نيابةً عنك — تنسيق المستندات، تنظيم الملفات، تجميع الأبحاث، وأتمتة سير العمل.
القدرات الرئيسية
- تنفيذ المهام متعدّدة الخطوات: صِف النتيجة المرجوّة، ابتعد، ثم عُد لتجد العمل قد اكتمل
- الوصول إلى نظام الملفات: القراءة والكتابة وتنظيم الملفات على حاسوبك
- المهام المجدولة: أتمتة الأعمال المتكرّرة (ميزة سحابية فقط)
- المشاريع: مساحات عمل دائمة لها ملفّاتها وروابطها وتعليماتها وذاكرتها الخاصّة
- الإضافات: توسيع الوظائف بالمهارات والموصِّلات والوكلاء الفرعيين
- استخدام الحاسوب (Computer Use): التحكّم بتطبيقات سطح المكتب عبر الرؤية والنقر والكتابة
يعمل Cowork مباشرةً على حاسوبك داخل آلة افتراضية معزولة، ما يمنح Claude صلاحية الوصول إلى الملفات التي تختار مشاركتها. وتنفَّذ الشيفرة بأمان داخل بيئات معزولة (sandbox) بينما يُجري Claude تعديلات حقيقية على ملفّاتك.
لماذا تستخدم النماذج المحلية مع Claude Cowork؟
تشغيل Claude Cowork عبر واجهات API السحابية يكلّف مالًا ويُرسل بياناتك إلى خوادم خارجية. إليك سبب تغيير النماذج المحلية للمعادلة:
| العامل | Claude السحابي | النماذج المحلية |
|---|---|---|
| التكلفة | 20-200$ شهريًا (خطط Pro/Max) | 0$ بعد العتاد |
| الخصوصية | تُرسَل البيانات إلى خوادم Anthropic | كل شيء يبقى على جهازك |
| حدود المعدّل | سقوف استخدام، خاصةً مع مهام Cowork الثقيلة | غير محدود — استخدم ما شئت |
| العمل دون اتصال | يحتاج إنترنت | يعمل دون اتصال تمامًا |
| إقامة البيانات | قلق من النقل العابر للحدود | تحكّم كامل بـ GDPR/الامتثال |
| السرعة | 60-80 رمز/ث | 8-25 رمز/ث (حسب العتاد) |
المقايضة واضحة: النماذج المحلية تُضحّي بالسرعة مقابل الخصوصية وتوفير التكلفة والاستخدام غير المحدود. ولكثير من سير العمل — خاصةً ما يتضمن شيفرة حسّاسة، أو مستندات مملوكة، أو بيئات معزولة — تكون هذه المقايضة منطقية تمامًا.
المتطلبات المسبقة ومتطلبات العتاد
قبل إعداد النماذج المحلية مع Claude Cowork، تأكّد أن نظامك يلبّي هذه المتطلبات:
متطلبات البرمجيات
- Ollama v0.14.0+ (مطلوب لتوافق Anthropic Messages API)
- Claude Code CLI مُثبَّت عبر
curl -fsSL https://claude.ai/install.sh | bash - macOS 13+ أو Windows 10+ أو Linux (يُنصح بـ Ubuntu 20.04+)
متطلبات العتاد
| المستوى | العتاد | أفضل نموذج | التجربة |
|---|---|---|---|
| الحدّ الأدنى المقبول | 16 جيجابايت RAM (M1/M2) أو RTX 3060 12GB | GLM-4.7-Flash (Q4) | قابل للاستخدام لمهام الملف الواحد. أبطأ في العمليات المعقّدة. |
| المُوصى به | 32 جيجابايت RAM (M1 Pro/Max) أو RTX 4070 Ti 16GB | Qwen3-Coder 30B (Q4) | متين لمعظم سير عمل البرمجة. متعدّد الملفات يعمل ولكن أبطأ. |
| الأمثل | 64+ جيجابايت RAM (M2/M3/M4 Max) أو RTX 4090 24GB | Qwen2.5-Coder-32B (Q6) | أفضل تجربة محلية. كوانتزة أعلى وإنتاجية أسرع. |
الإعداد خطوة بخطوة: Ollama + Claude Code
الخطوة 1: تثبيت Ollama
macOS (Homebrew):
brew install ollama
Linux:
curl -fsSL https://ollama.com/install.sh | sh
Windows: نزّل من ollama.com
تحقّق من التثبيت:
ollama --version
# يجب أن يكون v0.14.0 أو أحدث
الخطوة 2: سحب نموذج محلي
اختر نموذجًا يدعم استدعاء الأدوات (مطلوب لميزات Claude Code الوكيلية):
# الاختيار الأفضل — 30B MoE، 3B معلمات نشطة فقط، يعمل بـ 16GB RAM
ollama pull glm-4.7-flash
# بديل — نموذج برمجة قوي
ollama pull qwen3-coder
# خيار اقتصادي للأجهزة بـ 8GB
ollama pull devstral-small-2
الخطوة 3: تثبيت Claude Code
macOS/Linux:
curl -fsSL https://claude.ai/install.sh | bash
Windows:
irm https://claude.ai/install.ps1 | iex
الخطوة 4: ربط Claude Code بـ Ollama
الطريقة الأسرع — أمر واحد:
ollama launch claude
يضبط هذا تلقائيًا ANTHROPIC_AUTH_TOKEN وANTHROPIC_BASE_URL ويُشغّل Claude Code موجَّهًا إلى نسخة Ollama المحلية لديك. اختر نموذجك من القائمة واضغط Enter.
الطريقة اليدوية — متغيّرات بيئة صريحة:
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434
# تشغيل Claude Code
claude
أو في سطر واحد دون تعديل ملف الـ shell:
ANTHROPIC_AUTH_TOKEN=ollama ANTHROPIC_BASE_URL=http://localhost:11434 claude
الخطوة 5: التحقق من الاتصال
بمجرّد إقلاع Claude Code، جرّب أمرًا بسيطًا:
> Read the current directory and list all files
إن قام النموذج بقراءة الملفات وردّ بقوائم ملفات فعلية (بدلًا من مجرّد وصف ما سيفعله)، فاستدعاء الأدوات يعمل بشكل صحيح.
الإعداد عبر LM Studio
يوفّر LM Studio واجهة رسومية لإدارة النماذج المحلية:
- نزّل LM Studio من lmstudio.ai
- ابحث ونزّل GLM-4.7-Flash أو Qwen3-Coder
- انتقل إلى تبويب Local Server ← Start Server (المنفذ الافتراضي: 1234)
- أعدّ Claude Code:
export ANTHROPIC_AUTH_TOKEN=lm-studio
export ANTHROPIC_BASE_URL=http://localhost:1234
claude
أفضل النماذج المحلية لـ Claude Cowork
| النموذج | المعلمات | السياق | استدعاء الأدوات | RAM/VRAM المطلوبة | الأنسب لـ |
|---|---|---|---|---|---|
| GLM-4.7-Flash ⭐ | 30B MoE (3B نشط) | 128K | نعم (79.5%) | ~6.5GB (Q4) | أفضل توازن بين السرعة والقدرة |
| Qwen3-Coder | 30B | 128K | نعم | ~20GB (Q4) | مهام برمجة قوية |
| GPT-OSS:20B | 20B | 32K | نعم | ~12GB (Q4) | أغراض عامّة جيّدة |
| Devstral-Small-2 | 24B | 128K | نعم | ~16GB (Q4) | مهام مُركّزة على الشيفرة |
| Qwen2.5-Coder:32B | 32B | 128K | محدود | ~24GB (Q4) | برمجة معقّدة (يحتاج عتادًا قويًا) |
التوصية الأبرز: GLM-4.7-Flash. بنيته القائمة على "خليط الخبراء" تعني أن 3B معلمات فقط تنشط لكل رمز رغم كونه نموذج 30B. يُترجَم ذلك إلى استدلال سريع على عتاد متواضع (16GB RAM) مع الحفاظ على سياق 128K واستدعاء أدوات قوي (79.5% في اختبارات الوكلاء).
نماذج سحابية مجانية عبر Ollama
لا تريد تشغيل الاستدلال محليًا؟ يقدّم Ollama أيضًا نماذج سحابية مجانية بحدود معدّل سخيّة:
| النموذج | السياق | السرعة | التكلفة |
|---|---|---|---|
| qwen3.5:cloud | 128K+ | 30-60 رمز/ث | مجاني (محدود المعدّل) |
| glm-5:cloud | 128K+ | 30-60 رمز/ث | مجاني (محدود المعدّل) |
| kimi-k2.5:cloud | 128K+ | 30-60 رمز/ث | مجاني (محدود المعدّل) |
| qwen3-coder:480b-cloud | 128K+ | 30-60 رمز/ث | مجاني (محدود المعدّل) |
# استخدام نموذج سحابي مجاني عبر Ollama
ollama launch claude --model qwen3.5:cloud
تعمل هذه النماذج على بنية تحتية بعيدة لكنّها تستخدم واجهة Ollama نفسها. شيفرتك ما زالت تذهب إلى خوادم خارجية (ليست خاصّة فعلًا)، لكنها مجانية وأسرع بكثير من الاستدلال المحلي.
المقارنة الكاملة: Claude السحابي مقابل النماذج المحلية
| الجانب | Claude السحابي (Sonnet/Opus) | النماذج المحلية (Ollama) | نماذج Ollama Cloud |
|---|---|---|---|
| السرعة | 60-80 رمز/ث | 8-25 رمز/ث | 30-60 رمز/ث |
| جودة الشيفرة | دقّة تحرير 98% | دقّة تحرير 70-80% | دقّة تحرير 85-95% |
| الاستدلال متعدّد الملفات | ممتاز | متوسّط (يضعف مع التعقيد) | جيّد |
| استدعاء الأدوات | موثوق دائمًا | يعتمد على النموذج (GLM الأفضل) | موثوق |
| التكلفة الشهرية | 20-200$ | 0$ (الكهرباء فقط) | 0$ |
| الخصوصية | تُرسَل البيانات إلى Anthropic | محلي 100% | تُرسَل البيانات إلى مزوّد النموذج |
| العمل دون اتصال | لا | نعم | لا |
| حدود المعدّل | نعم (مهام Cowork الثقيلة تستهلك أكثر) | لا توجد | نعم (سخيّة) |
| المهام المجدولة | نعم | لا | لا |
| استخدام الحاسوب | نعم | لا | لا |
| الإضافات | دعم كامل | محدود | محدود |
| نافذة السياق | 200K+ | 32K-128K (حسب النموذج) | 128K+ |
اختبارات الأداء
أرقام واقعية من اختبارات منشورة تقارن الاستدلال المحلي والسحابي:
إنتاجية الرموز
| الإعداد | رمز/ث | ملاحظات |
|---|---|---|
| Claude API (Sonnet 4) | 60-80 | بنية Anthropic التحتية |
| نموذج Ollama سحابي | 30-60 | يتفاوت حسب النموذج والحمل |
| RTX 4070 Ti Super (32B Q4) | 15-25 | GPU بـ 489$، 16GB VRAM |
| M1 Max 64GB (GLM-4.7-Flash) | 10-20 | ذاكرة Apple Silicon الموحّدة |
| RTX 3060 12GB (GLM-4.7-Flash) | 8-15 | GPU اقتصادي |
توقيت المهام الواقعية
| المهمّة | Claude السحابي | GLM-4.7 محلي (M1 Max) | الفارق |
|---|---|---|---|
| قراءة وتحرير ملف بسيط | ~3 ثوانٍ | ~15 ثانية | أبطأ بـ 5 أضعاف |
| إعادة هيكلة متعدّدة الملفات | ~1 دقيقة | ~12 دقيقة | أبطأ بـ 12 ضعفًا |
| تحليل مستودع كامل | ~1.2 دقيقة | ~82 دقيقة | أبطأ بـ 68 ضعفًا |
درجات جودة البرمجة (اختبار 50 مهمّة)
| نوع المهمّة | GLM-4.7-Flash | Qwen3-Coder | Claude Sonnet السحابي |
|---|---|---|---|
| توليد الدوال | 3.9/5 | 4.1/5 | 4.4/5 |
| كشف الأخطاء | 3.5/5 | 3.8/5 | 4.6/5 |
| إعادة الهيكلة | 3.7/5 | 4.0/5 | 4.3/5 |
| السياق متعدّد الملفات | 2.5/5 | 2.8/5 | 4.5/5 |
| شرح الشيفرة | 4.0/5 | 4.2/5 | 4.1/5 |
تحليل التكلفة
| الخيار | تكلفة مبدئية | شهريًا | إجمالي 6 أشهر | إجمالي 12 شهرًا |
|---|---|---|---|---|
| خطّة Claude Pro | 0$ | 20$ | 120$ | 240$ |
| خطّة Claude Max | 0$ | 100-200$ | 600-1,200$ | 1,200-2,400$ |
| GPU محلي (RTX 4070 Ti) | 489$ | 8-12$ (كهرباء) | 537-561$ | 585-633$ |
| محلي (Apple Silicon، Mac حالي) | 0$ | 3-5$ (كهرباء) | 18-30$ | 36-60$ |
| نماذج Ollama Cloud | 0$ | 0$ | 0$ | 0$ |
نقطة التعادل: مستخدم Claude Max الكثيف (200$ شهريًا) يستردّ تكلفة GPU في 2.5 أشهر فقط. وحتى مستخدمو Claude Pro (20$ شهريًا) يحقّقون التعادل خلال 6-8 أشهر إذا كانوا يملكون أصلًا عتادًا قادرًا.
قيود النماذج المحلية
كن واقعيًا حول ما لا تستطيع النماذج المحلية فعله:
- استدلال أبطأ (3-68 ضعفًا): المهام البسيطة تستغرق 5 أضعاف. وتحليل المستودع المعقّد قد يصل إلى 68 ضعفًا مقارنة بـ Claude السحابي.
- دقّة تحرير أقل (70-80% مقابل 98%): النماذج المحلية تنتج رقعات بأرقام أسطر خاطئة، ومسافات بيضاء سيّئة، وسياقات غير مطابقة. على مدى جلسة من 50 تعديلًا، ستقضي وقتًا في إصلاح الرقعات المعطوبة أكثر من كتابة الشيفرة.
- استدلال متعدّد الملفات أضعف: Claude السحابي يبرع في فهم العلاقات داخل قواعد الشيفرة الكبيرة. أما النماذج المحلية فتتدهور بشكل ملحوظ مع التعقيد.
- موثوقية استدعاء الأدوات: ليست كل النماذج تدعمها. وبدونها، يصبح Claude Code مولّد نص يصف الإجراءات بدلًا من تنفيذها.
- لا مهام مجدولة: الأعمال الآلية المتكرّرة لا تعمل إلا مع Cowork السحابي.
- لا استخدام للحاسوب: التحكّم بسطح المكتب (النقر، الكتابة في التطبيقات) يتطلّب Claude السحابي.
- لا إضافات: معظم إضافات Cowork تتطلّب بنية تحتية سحابية.
- حدود نافذة السياق: النماذج المحلية تصل عادةً إلى 128K رمز كحدّ أقصى مقابل 200K+ في Claude السحابي.
- استدعاء الأدوات بالبثّ يحتاج Ollama 0.14.3-rc1+: الإصدار المستقرّ قد لا يعالج جميع سيناريوهات استخدام الأدوات بشكل صحيح.
ما الذي يصبح ممكنًا مع النماذج المحلية
رغم القيود، تفتح النماذج المحلية إمكانات هامّة:
- تطوير 100% دون اتصال: اكتب الشيفرة على الطائرات، في المقاهي بدون WiFi، أو في الشبكات المقيّدة.
- خصوصية بيانات تامّة: الشيفرة المملوكة، البيانات الشخصية، السجلّات الطبية، عقود الدفاع — لا شيء يغادر جهازك.
- الامتثال لـ GDPR: ألغِ مخاوف نقل البيانات عبر الحدود تمامًا. لا حاجة لاتفاقيات DPA.
- البيئات المعزولة: منظّمات الدفاع والرعاية الصحية والحكومة يمكنها استخدام مساعدة الذكاء الاصطناعي في البرمجة دون وصول إلى الشبكة.
- استخدام غير محدود: لا حدود معدّل، لا سقوف شهرية، لا خنق للسرعة عند الاستخدام الكثيف.
- نماذج معايَرة مخصّصة: درّب نماذج على شيفرة مشروعك للحصول على مساعدة خاصّة بمجالك.
- سير عمل هجين: استخدم المحلي للأعمال الحسّاسة، والسحابي للمهام المعقّدة. التبديل فوري.
- تجريب صفري التكلفة: جرّب نماذج وأساليب ومطالبات مختلفة دون مراقبة عدّاد الفواتير.
استكشاف الأخطاء وإصلاحها
خطأ "Connection refused"
- تأكّد أن Ollama يعمل:
ollama serve - تحقّق أن المنفذ غير محجوب:
curl http://localhost:11434/api/tags - تحقّق من إصدار Ollama:
ollama --version(يجب أن يكون 0.14.0+)
النموذج يتحدّث فقط بدلًا من التنفيذ
إذا ردّ Claude Code بـ "I would read the file..." بدلًا من قراءته فعلًا، فاستدعاء الأدوات لا يعمل:
- انتقل إلى نموذج بدعم أدوات مؤكّد: GLM-4.7-Flash أو أي نموذج سحابي
- حدّث Ollama إلى 0.14.3-rc1+ لاستدعاء الأدوات بالبثّ
- تأكّد أن
ANTHROPIC_AUTH_TOKENمضبوط علىollamaوليس مفتاح API حقيقي
توليد بطيء (أقل من 5 رمز/ث)
- اخفض إلى كوانتزة أصغر: Q4_K_M بدل Q6_K
- قلّص السياق:
ollama run glm-4.7-flash --num-ctx 32768 - انتقل إلى GLM-4.7-Flash إن كنت تستخدم نموذجًا كثيفًا (MoE = أسرع)
- فكّر في نماذج Ollama السحابية:
ollama launch claude --model qwen3.5:cloud
فشل طلبات "Role model"
يحاول Claude Code استخدام "haiku" للمهام الخلفية. أصلح الأمر بضبط تجاوز النموذج الصغير في إعدادات Claude Code لاستخدام النموذج المحلي نفسه.
الأسئلة الشائعة
هل يمكنني استخدام Claude Cowork دون اتصال تمامًا مع النماذج المحلية؟
نعم. بمجرّد سحب نموذجك عبر Ollama، يعمل كل شيء محليًا. لا حاجة للإنترنت للاستدلال. لكن بعض ميزات Cowork (المهام المجدولة، الإضافات، استخدام الحاسوب) سحابية فقط ولن تعمل دون اتصال.
هل هو مجاني فعلًا؟
تشغيل النماذج المحلية عبر Ollama مجاني تمامًا. لا مفاتيح API، لا فواتير، لا اشتراك. كذلك نماذج Ollama السحابية (مثل qwen3.5:cloud) مجانية بحدود معدّل سخيّة. التكلفة الوحيدة للاستدلال المحلي الحقيقي هي العتاد والكهرباء.
ما أفضل نموذج لـ Claude Code مع Ollama؟
GLM-4.7-Flash هو التوصية الأبرز: سياق 128K، استدعاء أدوات أصلي (79.5% في الاختبار)، ويعمل بـ 16GB RAM بفضل بنية خليط الخبراء. ولنماذج Ollama السحابية، يقدّم Qwen 3.5 وGLM-5 جودة على مستوى الجبهة بتكلفة صفرية.
كم يكون المحلي أبطأ من السحابي؟
توقّع 3-5 أضعاف للمهام البسيطة، وحتى 68 ضعفًا للتحليل المعقّد متعدّد الملفات. فجوة السرعة هي المقايضة الرئيسية. لكن لكثير من مهام الملف الواحد (شرح الشيفرة، تعديلات بسيطة، التوثيق)، يكون التأخير محتملًا (10-20 ثانية مقابل 3-5 ثوانٍ).
هل يمكنني التبديل بين النماذج المحلية والسحابية؟
نعم. استخدم النماذج المحلية للأعمال الحسّاسة/الخاصّة وClaude السحابي للمهام المعقّدة. يمكنك التبديل ببساطة بتغيير متغيّرات البيئة أو باستخدام ملفّات شخصية منفصلة للطرفيّة.
هل تضاهي الجودة Claude السحابي؟
لا. تسجّل النماذج المحلية 85-90% من جودة Claude السحابي في مهام الملف الواحد، لكن أسوأ بكثير في الاستدلال متعدّد الملفات (50-60% من جودة السحابي). دقّة التحرير تنخفض من 98% إلى 70-80%، أي حاجة لمزيد من التصحيحات اليدوية.
الخلاصة
Claude Cowork مع النماذج المحلية ليس بديلًا عن Claude السحابي — بل مكمّل له. سير العمل المثالي في 2026 يبدو هكذا:
- النماذج المحلية ← قواعد الشيفرة الحسّاسة، التجريب غير المحدود، العمل دون اتصال، البيئات التي تضع الخصوصية أولًا
- نماذج Ollama السحابية ← مجاني، أسرع من المحلي، جودة جيّدة، مقبول للأعمال غير الحسّاسة
- Claude السحابي ← الاستدلال المعقّد متعدّد الملفات، الأتمتة المجدولة، استخدام الحاسوب، أقصى جودة
الإعداد يستغرق 5 دقائق. التكلفة صفر. إن كان لديك Mac بـ 16GB+ من الذاكرة أو GPU بـ 12GB+ من VRAM، فلا داعي لعدم تجربته. ابدأ بـ ollama pull glm-4.7-flash وollama launch claude — ستجد نفسك تبرمج مع وكيل ذكاء اصطناعي محلي خلال أقل من دقيقة.
لمزيد من أدوات البرمجة بالذكاء الاصطناعي، تصفّح مراجعة Claude Opus 4.6 ومولّد الصور بالذكاء الاصطناعي المجاني.









