حاسوب عصبي تفاضلي

حاسوب عصبي قابل للاشتقاق يُدرب على تخزين أعداد ثنائية كثيفة واسترجاعها. يبرز أداء مرجعي للمهمة أثناء عملية التدريب. في الجزء العلوي الأيسر من الشكل، نجد المدخل (باللون الأحمر) والهدف (باللون الأزرق) ممثلين بكلمات مكونة من 5 بت وإشارة مقاطعة مؤلفة من بت واحد. وفي الجزء العلوي الأيمن، نلاحظ مخرجات النموذج.

الحاسوب العصبي التفاضلي هو نموذج شبكي عصبي معزز بالذاكرة، وعادة ما يكون تكراريًا في تطبيقه (ولكن ليس هذا شرطًا). نُشر هذا النموذج عام 2016 على يد أليكس غريفز وزملائه في شركة ديب مايند.[1]

التطبيقات

يُستلهم الحاسوب العصبي التفاضلي، بطريقة غير مباشرة، من معمارية فون نيومان، مما يجعله مرشحًا قويًا للتفوق على البنى التقليدية في المهام التي تعتمد بشكل أساسي على الخوارزميات والتي لا يمكن تعلمها من خلال تحديد حدود القرار.

حتى الآن، أثبتت شبكات الذاكرة العصبية قدرتها على التعامل مع المهام البسيطة نسبياً، والتي يمكن حلها باستخدام البرمجة التقليدية. ولكن لا تحتاج شبكات الذاكرة العصبية إلى البرمجة لكل مشكلة، بل يمكن تدريبها بدلاً من ذلك. تسمح فترة الانتباه هذه للمستخدم بتغذية هياكل البيانات المعقدة مثل الرسوم البيانية بشكل تسلسلي، واستدعائها للاستخدام لاحقاً. علاوة على ذلك، يمكنها تعلم جوانب من المنطق الرمزي وتطبيقه على الذاكرة العاملة. يرى الباحثون الذين نشروا هذه الطريقة إمكانية تدريب شبكات الذاكرة العصبية على أداء مهام معقدة ومنظمة، [2][3] ومعالجة تطبيقات البيانات الضخمة التي تتطلب نوعًا من المنطق، مثل توليد تعليقات الفيديو أو التحليل الدلالي للنص.[4][5]

يمكن تدريب الحاسوب العصبي التفاضلي على التنقل بنجاح في أنظمة النقل السريع، ثم تطبيقها على أنظمة نقل أخرى مختلفة. عادةً ما تتطلب الشبكات العصبية التقليدية، التي تفتقر إلى الذاكرة، البدء من الصفر في تعلم كل نظام نقل جديد. في مهام مثل عبور الرسوم البيانية ومعالجة التسلسلات، والتي تعتمد على التعلم المراقب، تفوقت شبكات الحاسوب العصبي التفاضلي على بدائلها، مثل الذاكرة قصيرة المدى المطولة وآلة تورينج العصبية.[6] وباستخدام نهج التعلم التعزيزي في حل لغز الكتل، دُرب الحاسوب العصبي التفاضلي بشكل منهجي لتعلم وضع الخطط. وقد تجاوز داء هذه الشبكات أداء الشبكات العصبية المتكررة التقليدية.[6]

البنية المعمارية

مخطط نظام الحاسوب العصبي التفاضلي

قُدمت شبكات الحاسوب العصبي التفاضلي (DNC) باعتبارها امتدادًا لآلة تورينج العصبية (NTM)، إذ أضافت إليها آليات انتباه للذاكرة تتحكم في مواقع تخزين المعلومات، وآليات انتباه زمنية تسجل تسلسل الأحداث. يتيح هذا الهيكل لشبكات الحاسوب العصبي التفاضلي أن تكون أكثر مرونة واستقلالية عن التفاصيل المحددة مقارنة بآلة تورينج العصبية، مع قدرتها على أداء مهام تتطلب تبعيات أطول أمدًا من تلك التي تستطيع شبكات الذاكرة قصيرة المدى المطولة (LSTM) التعامل معها. يمكن تخصيص الذاكرة، التي تتكون ببساطة من مصفوفة، ديناميكيًا والوصول إليها بشكل مستمر. تتميز هذه الشبكات بكونها قابلة للتفاضل من البداية إلى النهاية، أي أن كل مكون من مكوناتها الفرعية قابل للتفاضل، مما يجعل النموذج بأكمله قابلاً للتفاضل. وهذا يجعل من الممكن تحسينها بكفاءة باستخدام الانحدار التدريجي.[4][7][8]

يُشبه نموذج الحاسوب العصبي التفاضلي في بنيته المعمارية معمارية فون نيومان، ونظراً لمرونة حجم الذاكرة فيه، فهو قادر على تنفيذ أي عملية حسابية نظرية وفقًا لنموذج تورنغ.[9]

الإضافات

تشمل التحسينات المقترحة معالجة مسألة الذاكرة المتفرقة، مما يؤدي إلى تقليل تعقيد الوقت والمساحة بمقدار آلاف المرات. ويمكن تحقيق ذلك باستخدام خوارزميات التقريب للجوار الأقرب، مثل هاشينج الحساس للموقع أو شجرة "كي دي" العشوائية، كما هو متوفر في المكتبة السريعة لتحديد أقرب الجيران بجامعة كولومبيا البريطانية.[10] كما يُضاف إلى ذلك مفهوم الوقت الحسابي التكيفي (ACT)، الذي يهدف إلى فصل الوقت الحسابي عن وقت البيانات، مستفيدًا من حقيقة أن طول المشكلة وصعوبتها ليسا متطابقين دائمًا.[11]

من جهة أخرى، يُظهر التدريب باستخدام التدرجات الاصطناعية أداءً أفضل بكثير مقارنة بالانتشار العكسي عبر الزمن (BPTT).[12] وأخيرًا، يمكن تعزيز المتانة من خلال استخدام التطبيع الطبقي وإسقاط الالتفاف كأسلوب تنظيمي.[13]

انظر أيضا

مراجع

  1. ^ Graves, Alex; Wayne, Greg; Reynolds, Malcolm; Harley, Tim; Danihelka, Ivo; Grabska-Barwińska, Agnieszka; Colmenarejo, Sergio Gómez; Grefenstette, Edward; Ramalho, Tiago (12 Oct 2016). "Hybrid computing using a neural network with dynamic external memory". Nature (بالإنجليزية). 538 (7626): 471–476. Bibcode:2016Natur.538..471G. DOI:10.1038/nature20101. ISSN:1476-4687. PMID:27732574. S2CID:205251479. Archived from the original on 2024-12-03. Retrieved 2024-11-29.
  2. ^ Graves, Alex; Wayne, Greg; Reynolds, Malcolm; Harley, Tim; Danihelka, Ivo; Grabska-Barwińska, Agnieszka; Colmenarejo, Sergio Gómez; Grefenstette, Edward; Ramalho, Tiago (12 Oct 2016). "Hybrid computing using a neural network with dynamic external memory". Nature (بالإنجليزية). 538 (7626): 471–476. Bibcode:2016Natur.538..471G. DOI:10.1038/nature20101. ISSN:1476-4687. PMID:27732574. S2CID:205251479. Archived from the original on 2024-12-03. Retrieved 2024-11-29.Graves, Alex; Wayne, Greg; Reynolds, Malcolm; Harley, Tim; Danihelka, Ivo; Grabska-Barwińska, Agnieszka; Colmenarejo, Sergio Gómez; Grefenstette, Edward; Ramalho, Tiago (2016-10-12). "Hybrid computing using a neural network with dynamic external memory". Nature. 538 (7626): 471–476. Bibcode:2016Natur.538..471G. doi:10.1038/nature20101. ISSN 1476-4687. PMID 27732574. S2CID 205251479.
  3. ^ "Differentiable neural computers | DeepMind". DeepMind. 12 أكتوبر 2016. مؤرشف من الأصل في 2016-12-09. اطلع عليه بتاريخ 2016-10-19.
  4. ^ ا ب Burgess, Matt. "DeepMind's AI learned to ride the London Underground using human-like reason and memory". WIRED UK (بالإنجليزية). Archived from the original on 2023-06-11. Retrieved 2016-10-19.
  5. ^ Jaeger, Herbert (12 Oct 2016). "Artificial intelligence: Deep neural reasoning". Nature (بالإنجليزية). 538 (7626): 467–468. Bibcode:2016Natur.538..467J. DOI:10.1038/nature19477. ISSN:1476-4687. PMID:27732576. Archived from the original on 2024-01-17. Retrieved 2024-11-29.
  6. ^ ا ب James، Mike. "DeepMind's Differentiable Neural Network Thinks Deeply". www.i-programmer.info. مؤرشف من الأصل في 2024-10-05. اطلع عليه بتاريخ 2016-10-20.
  7. ^ "DeepMind AI 'Learns' to Navigate London Tube". PCMAG. مؤرشف من الأصل في 2019-09-17. اطلع عليه بتاريخ 2016-10-19.
  8. ^ Mannes، John (13 أكتوبر 2016). "DeepMind's differentiable neural computer helps you navigate the subway with its memory". TechCrunch. مؤرشف من الأصل في 2024-12-02. اطلع عليه بتاريخ 2016-10-19.
  9. ^ "RNN Symposium 2016: Alex Graves - Differentiable Neural Computer". يوتيوب. 22 مارس 2017. اطلع عليه بتاريخ 2024-11-29.
  10. ^ A bot will complete this citation soon. Click here to jump the queue أرخايف:[1].
  11. ^ A bot will complete this citation soon. Click here to jump the queue أرخايف:[2].
  12. ^ A bot will complete this citation soon. Click here to jump the queue أرخايف:[3].
  13. ^ A bot will complete this citation soon. Click here to jump the queue أرخايف:[4].

روابط خارجية