ألكسنت

من testwiki
اذهب إلى التنقل اذهب إلى البحث

قالب:لا صندوق معلومات

مقارنة بين طبقات لينت وألكسنت التلافيفية و طبقات التجميع والطبقات الكثيفة (يجب أن يكون حجم صورة في شبكةألكسنت 227×227×3، بدلاً من 224×224×3، لذا ستظهر الحسابات بشكل صحيح. ذكرت الورقة الأصلية أرقامًا مختلفة، لكن أندريه كارباثي، الرئيس السابق لقسم رؤية الكمبيوتر في شركة تيسلا، قال بأنها يجب أن تكون 227×227×3 (قال أن أليكس لم يوضح سبب وضعه 224×224×3).يجب أن يكون الالتواء التالي 11×11 مع الخطوة 4: 55×55×96 (بدلاً من 54×54×96 ). سيتم حسابه، على سبيل المثال، على النحو التالي: [(عرض الإدخال 227 - عرض النواة 11) / الخطوة 4] + 1 = [(227 - 11) / 4] + 1 = 55. بما أن مخرجات النواة هي نفسها الطول كالعرض ومساحته 55×55).

ألكسنت هي بنية شبكة عصبية تلافيفية، صممها أليكس كريجفسكي بالتعاون مع إيليا سوتسكيفر وجيوفري هينتون، مشرف أليكس كريجفسكي في مرحلة الدكتوراة.[١][٢] شاركت قالب:ط في تحدي إميج نت للتعرف البصري في 30 سبتمبر 2012.[٣] حققت الشبكة نسبة الخطأ الأقل من بين الخمسة الأوائل بنسبة 15.3%، أي أقل من 10.8 نقطة مئوية من نسبة الحاصل علي المرتبة الثانية. كانت النتيجة الأولية للورقة الأصلية هي أن عمق النموذج كان ضروريًا لأدائه العالي، والذي كان مكلفًا من الناحية الحسابية، ولكنه أصبح ممكنًا بسبب استخدام وحدات معالجة الرسومات أثناء تدريب التصميم.[٢]

مقدمة

فوزقالب:ط بأسرع تطبيق للشبكات العصبية التلافيفية على وحدة معالجة الرسومات لم يكن الأول في مسابقة التعرف على الصور. فقد كانت أول شبكة تلافيفية عصبية تنفذ على وحدة معالجة الرسوميات عام (2006) من تنفيذ قالب:ط أسرع بأربع مرات من التنفيذ المكافئ على وحدة المعالجة المركزية.[٤] كذلك يوجد نموذج تصميمي أخر سمي الشبكة التلافيفية العميقة من تقديم قالب:ط عام 2011 والذي قدم من قبل معهد دالي مولي لأبحاث الذكاء الاصطناعي والذي كان أسرع 60 مرة عند تنفيذه على وحدة معالجة الرسومات [٥] و الذى تفوق على نسخته السابقة في إصدار أحدث في أغسطس 2011.[٦] كما فازت شبكة قالب:ط التلافيفة العميقة بما لا يقل عن أربع مسابقات للصور بين 15 مايو 2011 و10 سبتمبر 2012.[٧][٨] أيضا قدمت تحسناً بصورة ملحوظة في أفضل أداء على العديد من قواعد بيانات للصور المختلفة.[٩]

وفقًا للورقة البحثية التي قدمت تصميم قالب:ط [٢] فإن تصميم شبكة قالب:ط الأول يشبه تصميم شبكة قالب:ط. نفذ كليهما في الأصل باستخدام منصة الحوسبة المتوزعة كودا للتشغيل والتي تدعم وحدة معالجة الرسوميات. في الواقع، يعد كليهما مجرد أشكال مختلفة لتصميمات الشبكات التلافيفة التي قدمها يان ليكون عام 1989.[١٠][١١] والذي طبق خوارزمية الانتشار الخلفي على نسخ مختلفة من بنية الشبكات العصبية التلافيفة الأصلية لصاحبها كونيهيكو فوكوشيما والتي كانت تسمى آنذاك نيوكونييترون.[١٢][١٣] عُدلت البنية لاحقًا بواسطة طريقة قالب:ط التي تسمى مضاعفة المرشحات .[٨][١٤] في عام 2015، تفوقت الشبكة التلافيفة العميقة جدًا التابعة لشركة قالب:ط والتي تحتوي على أكثر من 100 طبقة على قالب:ط في الأداء، وفازت في مسابقة أميج نت عام 2015.[١٥]

بنية الشبكة

تحتوي قالب:ط على ثماني طبقات؛ كانت الخمس الأولى منها عبارة عن طبقات تلافيفية، ويتبع بعضها طبقات تسمى بطبقات التجميع وفق القيمة القصوى، وكانت أخر ثلاث طبقات عبارة عن طبقات الاتصال الكامل. قُسمت الشبكة، باستثناء الطبقة الأخيرة، إلى نسختين كل منهما تعمل على وحدة معالجة رسومات منفصلة.[٢] يمكن كتابة الهيكل بأكمله كـما يلي: (CNNRNMP)2(CNN3MP)(FCDO)2Linearsoftmax حيث:

  • CNN هي شبكة عصبونية التفافية
  • RN وهي تطبيع الاستجابة المحلية
  • MP و هي طبقة تجميع وفق القيمة القصوى
  • FC و هي طبقة الاتصال الكامل (باستخدام دالة التفعيل من نوع وحدة التصحيح الخطي )
  • Linear و هي طبقة اتصال كامل بدون دالة تفعيل
  • DO و هي تقنية تعطيل جزئي لبعض الخلايا العصبية الإصطناعية في الشبكة

كما استخدمت دالة تفعيل وحدة التصحيح الخطي من النوع الغير المشبعة، والتي أظهرت تحسنًا في أداء التدريب على دالة الظل الزائدية ودالة سينية.[٢]

أهمية بنية ألكسنت

تعتبر قالب:ط واحدة من أكثر الأبحاث المنشورة تأثيرًا في الرؤية الحاسوبية، حيث حفزت العديد من الأبحاث المنشورة التي تستخدم الشبكات العصبية التلافيفية ووحدات معالجة الرسوميات لتسريع التعلم العميق.[١٦] اعتبارًا من أوائل عام 2023، استشهد ببحث قالب:ط أكثر من 120,000 مرة وفقًا لـموقع جوجل سكولار.[١٧]

المصادر

قالب:مراجع قالب:شريط سفلي حوسبة تفاضلية قالب:شريط سفلي ذكاء اصطناعي

قالب:ضبط استنادي

قالب:شريط بوابات