डीप लर्निंग का वैज्ञानिक सिद्धांत विकसित हो रहा
मूल शीर्षक: There Will Be a Scientific Theory of Deep Learning [R]
यह क्यों महत्वपूर्ण है
AI के सबसे शक्तिशाली उपकरण की वैज्ञानिक समझ विकसित होने से बेहतर मॉडल डिज़ाइन संभव होगा।
14 शोधकर्ताओं ने arXiv पर 41 पेज का पेपर प्रकाशित किया है जो तर्क देता है कि डीप लर्निंग का एक वैज्ञानिक सिद्धांत उभर रहा है। यह सिद्धांत न्यूरल नेटवर्क के प्रशिक्षण, प्रदर्शन और व्यवहार की व्याख्या करता है।
Jamie Simon और Daniel Kunin के नेतृत्व में 14 शोधकर्ताओं की टीम ने एक महत्वपूर्ण शोध पत्र प्रकाशित किया है जो दावा करता है कि डीप लर्निंग का एक वैज्ञानिक सिद्धांत विकसित हो रहा है। यह 41 पृष्ठों का पेपर पांच मुख्य अनुसंधान क्षेत्रों की पहचान करता है: (a) आदर्शीकृत सेटिंग्स जो वास्तविक सिस्टम में सीखने की गतिशीलता की अंतर्दृष्टि प्रदान करती हैं, (b) ट्रैक्टेबल सीमाएं जो मौलिक सीखने की घटनाओं को समझाती हैं, (c) सरल गणितीय नियम जो महत्वपूर्ण मैक्रोस्कोपिक अवलोकनों को पकड़ते हैं, (d) हाइपरपैरामीटर के सिद्धांत, और (e) सिस्टम में साझा सार्वभौमिक व्यवहार। शोधकर्ताओं ने इस उभरते सिद्धांत को 'लर्निंग मैकेनिक्स' नाम दिया है। पेपर में तर्क दिया गया है कि यह दृष्टिकोण प्रशिक्षण प्रक्रिया की गतिशीलता पर केंद्रित है और मुख्यतः समग्र सांख्यिकीय विवरण प्रदान करने का प्रयास करता है।