अब आप जानते हैं कि न्यूरल नेटवर्क वेट्स और बायस एडजस्ट करके सीखते हैं। लेकिन पूरी ट्रेनिंग प्रक्रिया वास्तव में कैसे काम करती है? आपको कैसे पता चलता है कि मॉडल ने काफ़ी सीख लिया है - या बहुत ज़्यादा? इस पाठ में, हम पूरी ट्रेनिंग यात्रा से गुज़रेंगे।
AI मॉडल की ट्रेनिंग एक चक्र का अनुसरण करती है जो बार-बार दोहराया जाता है:
यह लूप हज़ारों या लाखों बार चलता है। हर बार दोहराने पर मॉडल सही जवाबों के थोड़ा और करीब पहुँचता है।
GPT-4 की ट्रेनिंग में केवल कम्प्यूटिंग पावर पर $100 मिलियन से अधिक का खर्च आया बताया जाता है। ट्रेनिंग लूप हज़ारों विशेष चिप्स पर महीनों तक चला।
हर प्रेडिक्शन के बाद, हमें यह मापने का तरीका चाहिए कि मॉडल कितना गलत था। इस माप को लॉस (या कॉस्ट) कहते हैं, और इसकी गणना करने वाले फ़ॉर्मूले को लॉस फंक्शन कहते हैं।
इसे डार्टबोर्ड की तरह सोचें। बुल्सआई सही उत्तर है। लॉस वह दूरी है जहाँ आपका डार्ट लगा वहाँ से बुल्सआई तक की। ट्रेनिंग का लक्ष्य समय के साथ उस दूरी को कम करना है।
सामान्य लॉस फंक्शन में शामिल हैं:
AI ट्रेनिंग में लॉस फंक्शन क्या मापता है?
Sign in to join the discussion
पूरे ट्रेनिंग डेटासेट से एक बार पूरा गुज़रना एक एपॉक कहलाता है। ट्रेनिंग में आमतौर पर कई एपॉक्स लगते हैं - मॉडल एक ही डेटा को कई बार देखता है, हर बार थोड़ा बेहतर होता है।
परीक्षा की तैयारी एपॉक्स चलाने जैसी है। पहली बार पढ़ने पर भ्रम होता है, लेकिन हर बार दोहराने से समझ बनती है। हालाँकि, अगर आप वही नोट्स सौ बार दोबारा पढ़ें, तो आप सटीक शब्द रट सकते हैं बिना अवधारणाओं को वास्तव में समझे। AI को भी यही समस्या होती है।
ओवरफिटिंग AI ट्रेनिंग में सबसे आम समस्याओं में से एक है। यह तब होती है जब मॉडल ट्रेनिंग डेटा को बहुत अच्छी तरह सीख लेता है - इसके शोर और विचित्रताओं सहित - और नए, अनदेखे डेटा पर खराब प्रदर्शन करता है।
कल्पना करें एक छात्र जो हर पुराने परीक्षा पत्र को शब्दशः रट लेता है। वे पुराने पत्रों पर पूर्ण अंक प्राप्त करते हैं लेकिन जब प्रश्न थोड़े भी बदलते हैं तो संघर्ष करते हैं। छात्र ने विषय नहीं सीखा - उसने जवाब रट लिए।
ओवरफिटिंग के संकेत:
ट्रेनिंग का लक्ष्य उस डेटा पर पूर्ण स्कोर करना नहीं है जो मॉडल पहले ही देख चुका है। यह उस डेटा पर अच्छा प्रदर्शन करना है जो उसने कभी नहीं देखा। यही सीखने की असली परीक्षा है।
विपरीत समस्या है अंडरफिटिंग। यह तब होती है जब मॉडल ने डेटा से पर्याप्त नहीं सीखा। यह ट्रेनिंग डेटा और नए डेटा दोनों पर खराब प्रदर्शन करता है।
अंडरफिटिंग के कारणों में शामिल हैं:
अगर ओवरफिटिंग पुराने पत्र रटने जैसा है, तो अंडरफिटिंग किताब शायद ही खोले हुए परीक्षा में जाने जैसा है।
एक मॉडल ट्रेनिंग डेटा पर 98% एक्यूरेसी स्कोर करता है लेकिन नए डेटा पर केवल 60%। सबसे संभावित समस्या क्या है?
ओवरफिटिंग और अंडरफिटिंग का पता लगाने के लिए, हम अपना डेटा तीन भागों में विभाजित करते हैं:
| सेट | उद्देश्य | कब उपयोग होता है | |-----|---------|-----------| | ट्रेनिंग सेट | मॉडल इस डेटा से सीखता है | ट्रेनिंग के दौरान | | वैलिडेशन सेट | प्रगति जाँचने और सेटिंग्स ट्यून करने के लिए | ट्रेनिंग के दौरान | | टेस्ट सेट | पूरी तरह अनदेखे डेटा पर अंतिम मूल्यांकन | ट्रेनिंग के बाद |
एक सामान्य विभाजन 70% ट्रेनिंग, 15% वैलिडेशन, और 15% टेस्ट है। मॉडल बिल्कुल अंत तक टेस्ट सेट कभी नहीं देखता - यही अंतिम परीक्षा है।
वैलिडेशन सेट एक अभ्यास परीक्षा जैसा है जो आप पढ़ाई के सत्रों के बीच देते हैं। यह बताता है कि आप कितनी अच्छी तरह सीख रहे हैं बिना असली परीक्षा को खराब किए। अगर आपके अभ्यास परीक्षा के अंक गिरने लगें जबकि नोट्स के अंक बढ़ते रहें, तो आपको पता चल जाता है कि कुछ गलत है।
कब रोकना है यह जानना बहुत ज़रूरी है। बहुत कम ट्रेन करें तो मॉडल अंडरफिट करता है। बहुत ज़्यादा ट्रेन करें तो ओवरफिट करता है। स्वीट स्पॉट वहाँ है जहाँ वैलिडेशन लॉस में सुधार रुक जाता है।
अर्ली स्टॉपिंग नामक एक तकनीक इसे स्वचालित करती है:
यह मॉडल को उपयोगी सीखने के बिंदु से आगे जाकर रटने में जाने से रोकता है।
AI ट्रेनिंग में 'अर्ली स्टॉपिंग' क्या है?
कुछ आधुनिक ट्रेनिंग रन लर्निंग रेट शेड्यूलिंग नामक तकनीक का उपयोग करते हैं, जो धीरे-धीरे कम करती है कि हर चरण में वेट्स कितना बदलते हैं - जैसे पहाड़ की चोटी के करीब पहुँचते हुए छोटे और अधिक सावधान कदम उठाना।
अंतिम पाठ में, हम AI के नैतिक आयामों की खोज करेंगे - पूर्वाग्रह, निष्पक्षता, गोपनीयता, और ज़िम्मेदार AI कैसा दिखता है।