→ العودة إلى المدونة
Engineering

Raspberry Pi AI HAT+ 2: تشغيل نماذج LLMs محليًا مقابل 130 دولارًا فقط

يقدم Raspberry Pi AI HAT+ 2 نماذج اللغات الكبيرة (LLMs) المحلية إلى الحافة مع شريحة Hailo 10H، وذاكرة وصول عشوائي (RAM) مخصصة بسعة 8 جيجابايت، ودعم لـ DeepSeek وLlama وQwen—وكل ذلك يعمل دون اتصال بالإنترنت باستهلاك 3 واط فقط.

O
بقلم Optijara AI
5 فبراير 20267 دقيقة قراءة266 مشاهدة
Raspberry Pi AI HAT+ 2: تشغيل نماذج LLMs محليًا مقابل 130 دولارًا فقط

صعود الذكاء الاصطناعي السيادي على الحافة

لسنوات، ارتبط وعد الذكاء الاصطناعي التوليدي بالسحابة. غالبًا ما يأتي هذا الاعتماد مع عقبات كبيرة: زمن انتقال عالٍ، وتكاليف اشتراك متكررة، ومخاوف معقدة تتعلق بخصوصية البيانات. ومع ذلك، شهد مشهد الحوسبة الطرفية للتو تحولًا زلزاليًا. يمثل إطلاق Raspberry Pi AI HAT+ 2 نقطة تحول، حيث يقدم حلاً عالي الأداء ومنخفض الطاقة لتشغيل نماذج اللغات الكبيرة (LLMs) محليًا باستثمار واحد في الأجهزة يبلغ 130 دولارًا فقط.

إن القدرة على نشر نماذج مثل DeepSeek وLlama وQwen على جهاز يناسب راحة يدك—ويستهلك 3 واط فقط من الطاقة—تفتح أبوابًا غير مسبوقة للإنترنت الصناعي للأشياء، وواجهات الصوت الآمنة، والأتمتة المؤسسية المحلية عبر أي صناعة.

إنجاز تقني: Hailo 10H وذاكرة وصول عشوائي (RAM) مخصصة بسعة 8 جيجابايت

يكمن جوهر Raspberry Pi AI HAT+ 2 في وحدة تسريع الذكاء الاصطناعي Hailo 10H. في حين أن مسرعات الذكاء الاصطناعي السابقة لـ Pi ركزت بشكل أساسي على رؤية الكمبيوتر واكتشاف الكائنات، فإن AI HAT+ 2 مصمم خصيصًا للعصر التوليدي. إنه يوفر ما يصل إلى 40 تريليون عملية في الثانية (TOPS) من الأداء، لكن الابتكار الحقيقي للأجهزة يكمن في بنيتها الذاكرية.

ذاكرة مخصصة للنماذج الكبيرة

على عكس إضافات وحدات معالجة الشبكات العصبية (NPU) القياسية التي تشارك ذاكرة الوصول العشوائي (RAM) للنظام المضيف، يتميز AI HAT+ 2 بـ 8 جيجابايت من ذاكرة LPDDR4x RAM المخصصة. هذا أمر بالغ الأهمية لنشر نماذج اللغات الكبيرة (LLM). نادرًا ما يكون عنق الزجاجة مجرد حساب—إنه عرض النطاق الترددي للذاكرة وسعتها. من خلال توفير 8 جيجابايت من المساحة المخصصة، يتيح HAT لجهاز Raspberry Pi 5 تحميل أوزان النموذج بالكامل على المسرّع، مما يحرر موارد Pi لمنطق التطبيق.

  • المجموعة الرقاقية: معالج الذكاء الاصطناعي Hailo 10H
  • الأداء: 40 تريليون عملية في الثانية (TOPS) (INT4)
  • الذاكرة: 8 جيجابايت ذاكرة LPDDR4x RAM مخصصة
  • الطاقة: حوالي 3 واط تحت أعباء العمل النموذجية
  • الواجهة: PCIe 3.0 عبر موصل FPC لجهاز Raspberry Pi 5
  • السعر: 130 دولارًا

النماذج المدعومة: DeepSeek وLlama وQwen

الميزة الأكثر جاذبية هي الدعم المؤكد لبنيات نماذج اللغات الكبيرة (LLM) الحديثة. من خلال Hailo Model Zoo وحزم البرامج المحسنة، يقوم AI HAT+ 2 بتشغيل إصدارات مكممة من النماذج مفتوحة المصدر الرائدة:

DeepSeek-R1-Distill (1.5 مليار)

اكتسب DeepSeek زخمًا هائلاً بفضل كفاءته في الاستدلال. يعمل نموذج R1 المقطر بسلاسة على AI HAT+ 2، وهو مثالي للمساعدة في البرمجة، والاستدلال المتسلسل للأفكار، والمهام المتخصصة داخل شبكة مغلقة.

Llama 3.2 من Meta (1 مليار)

Llama 3.2 هو المعيار الصناعي للذكاء الاصطناعي المحلي للأغراض العامة. بفضل قوة 40 تريليون عملية في الثانية (TOPS)، يحقق AI HAT+ 2 معدلات رموز في الثانية قابلة للاستخدام لتطبيقات الدردشة في الوقت الفعلي—وهو قابل للتطبيق لأكشاك خدمة العملاء أو قواعد المعرفة الداخلية.

عائلة Qwen 2.5 من Alibaba (1.5 مليار)

تتضمن Qwen 2.5 إصدارات Instruct وCoder، وتقدم قدرات قوية متعددة اللغات وتوليد الأكواد. يضمن تشغيل Qwen محليًا استجابات بدون تأخير وبدون تكاليف واجهة برمجة التطبيقات (API).

لماذا تشغل نماذج اللغات الكبيرة (LLMs) محليًا؟

1. خصوصية وأمان البيانات

عندما يعمل الذكاء الاصطناعي محليًا، لا تغادر البيانات الجهاز أبدًا. لا يوجد خطر استخدام البيانات الحساسة لتدريب نماذج سحابية تابعة لجهات خارجية. هذا النهج "للذكاء الاصطناعي المعزول" ضروري لتطبيقات الرعاية الصحية والمالية والقانونية والحكومية.

2. صفر تأخير

مكالمات واجهة برمجة التطبيقات (API) السحابية تُدخل زمن انتقال الشبكة. يوفر الاستدلال المحلي استجابات فورية—وهو أمر بالغ الأهمية لواجهات الصوت، والأتمتة في الوقت الفعلي، والتطبيقات التفاعلية.

3. لا توجد تكاليف متكررة

تفرض واجهات برمجة تطبيقات الذكاء الاصطناعي السحابية رسومًا لكل رمز. لحالات الاستخدام عالية الحجم، تتراكم التكاليف بسرعة. AI HAT+ 2 هو استثمار لمرة واحدة بقيمة 130 دولارًا مع استدلال محلي غير محدود.

4. التشغيل دون اتصال بالإنترنت

غالبًا ما تعمل الأجهزة الطرفية في بيئات يكون فيها الإنترنت غير موثوق به أو غير متوفر. يمكن لجهاز بقدرة 3 واط يعمل بالطاقة الشمسية أو البطارية توفير تشخيصات ذكية وواجهات صوتية في أي مكان.

حالات الاستخدام العملية

  • المساعدون الصوتيون المحليون: معالجة تحويل الكلام إلى نص واستجابات نماذج اللغات الكبيرة (LLM) دون الاعتماد على السحابة
  • الإنترنت الصناعي للأشياء: الصيانة التنبؤية والتشخيصات على الحافة
  • البيع بالتجزئة الذكي: أكشاك تعمل بالذكاء الاصطناعي وتعمل دون اتصال بالإنترنت
  • المكاتب الذكية ذات الأولوية للخصوصية: مساعدو غرف الاجتماعات الذين لا ينقلون البيانات خارجيًا
  • الروبوتات: ذكاء مدمج للأنظمة المستقلة
  • التعليم: مختبرات ذكاء اصطناعي ميسورة التكلفة للمدارس والجامعات

اعتبارات التنفيذ

يتطلب تشغيل نماذج اللغات الكبيرة (LLMs) على أجهزة الحافة تكميمًا—ضغط أوزان النموذج من 16 بت إلى 4 بت أو 8 بت لتناسب سعة الذاكرة البالغة 8 جيجابايت. يقلل هذا قليلاً من قدرة النموذج، ولكن المقايضة في السرعة والخصوصية والتكلفة تُفضل عادةً للمهام المحددة.

التبريد مهم أيضًا. على الرغم من استهلاك الطاقة المنخفض البالغ 3 واط، يجب وضع Raspberry Pi 5 وAI HAT+ 2 في غلاف تبريد نشط لجلسات الاستدلال المستمرة.

البدء

AI HAT+ 2 متاح الآن من بائعي Raspberry Pi الرسميين. ستحتاج إلى:

  • Raspberry Pi 5 (يوصى بـ 8 جيجابايت)
  • نظام تشغيل Raspberry Pi محدّث
  • حل تبريد نشط

تحقق من الوثائق الرسمية وGitHub الخاص بـ Hailo لتنزيلات النماذج وأدلة الإعداد.

الخلاصة: المستقبل محلي

لا يعد Raspberry Pi AI HAT+ 2 مجرد أداة للهواة—إنه مسرّع احترافي يجعل الذكاء الاصطناعي المحلي في متناول الجميع. مقابل 130 دولارًا، تحصل على جهاز يشغل نماذج DeepSeek وLlama وQwen بالكامل دون اتصال بالإنترنت، بدون تكاليف واجهة برمجة تطبيقات (API)، وبدون تأخير، ومع خصوصية كاملة للبيانات.

لقد وصل عصر الذكاء الاصطناعي السيادي للحافة. السؤال ليس ما إذا كان يجب نشر الذكاء الاصطناعي محليًا—بل مدى سرعة البدء به.

شارك هذا المقال

O

بقلم

Optijara AI