आर्टिफ़िशियल इंटेलिजेंस रातोंरात नहीं आई। यह शानदार विचारों, बड़ी-बड़ी भविष्यवाणियों, निराशाजनक असफलताओं और चौंका देने वाली सफलताओं की कहानी है। आइए इस सफ़र को साथ मिलकर देखें।
1950 में, ब्रिटिश गणितज्ञ एलन ट्यूरिंग ने Computing Machinery and Intelligence नाम का एक पेपर प्रकाशित किया। इसमें उन्होंने वह प्रस्ताव रखा जिसे अब हम ट्यूरिंग टेस्ट कहते हैं: अगर कोई मशीन इतनी विश्वसनीय बातचीत कर सके कि इंसान यह न बता पाए कि वह किसी व्यक्ति से बात कर रहा है या कंप्यूटर से, तो शायद हम कह सकते हैं कि वह मशीन "सोच" सकती है।
ट्यूरिंग ने खुद कोई AI नहीं बनाई - लेकिन उन्होंने दुनिया को वह सवाल दिया जिसने पूरे क्षेत्र की शुरुआत की।
1956 की गर्मियों में, शोधकर्ताओं का एक छोटा समूह न्यू हैम्पशायर, USA में डार्टमाउथ कॉलेज में इकट्ठा हुआ। उन्होंने "आर्टिफ़िशियल इंटेलिजेंस" शब्द गढ़ा और एक अत्यंत आशावादी भविष्यवाणी की: उनका मानना था कि एक पीढ़ी के भीतर मशीनें वह सब कुछ कर सकेंगी जो इंसानी दिमाग कर सकता है।
ऐसा बिल्कुल नहीं हुआ - लेकिन इस सम्मेलन ने AI को आधिकारिक रूप से एक अध्ययन क्षेत्र के रूप में स्थापित किया।
शुरुआती AI प्रोग्राम बीजगणित के सवाल हल कर सकते थे, ड्राफ्ट्स खेल सकते थे, और यहाँ तक कि बुनियादी बातचीत भी कर सकते थे (जैसे 1966 में चैटबॉट ELIZA)। फंडिंग की बाढ़ आ गई। सरकारें और विश्वविद्यालय मानते थे कि इंसान-स्तर की AI बस आने ही वाली है।
ELIZA क्या थी?
हकीकत ने करारा झटका दिया। कंप्यूटर बहुत धीमे थे, डेटा कम था, और शुरुआती AI असली दुनिया की जटिलताओं को संभाल नहीं पाती थी। फंडिंग सूख गई और आलोचकों ने AI को ओवरहाइप्ड कहा। इस निराशाजनक दौर को पहला AI विंटर कहा जाता है।
इसे ऐसे समझिए जैसे जमी हुई ज़मीन में बीज बोना - विचार अच्छे थे, लेकिन तकनीक अभी तैयार नहीं थी।
1980 के दशक में, एक्सपर्ट सिस्टम्स लोकप्रिय हुए। ये ऐसे प्रोग्राम थे जिनमें इंसानों द्वारा लिखे नियम भरे होते थे - उदाहरण के लिए, "अगर मरीज को बुखार है और चकत्ते हैं, तो खसरे पर विचार करें।" कंपनियों ने इन्हें बनाने में करोड़ों खर्च किए।
लेकिन एक्सपर्ट सिस्टम्स नाजुक थे। ये सीख या अनुकूलित नहीं हो सकते थे। जब व्यावसायिक नतीजे निराश करने वाले रहे, तो 1980 के दशक के अंत में आया।
Sign in to join the discussion
2012 में सब कुछ बदल गया जब AlexNet नामक एक neural network ने ImageNet इमेज-रिकग्निशन चुनौती में सबको पीछे छोड़ दिया। इसने हाथ से लिखे नियम इस्तेमाल नहीं किए - इसने लाखों तस्वीरों से सीखा।
इस सफलता ने साबित किया कि डीप लर्निंग (कई परतों वाले neural networks) वाकई काम करती है जब पर्याप्त डेटा और कंप्यूटिंग पावर हो। अचानक, टेक कंपनियों ने अरबों का निवेश शुरू कर दिया।
| साल | मील का पत्थर | |------|-----------| | 1950 | ट्यूरिंग ने ट्यूरिंग टेस्ट प्रस्तावित किया | | 1956 | डार्टमाउथ में "आर्टिफ़िशियल इंटेलिजेंस" शब्द गढ़ा गया | | 1966 | ELIZA चैटबॉट बनाई गई | | 1997 | IBM Deep Blue ने शतरंज चैंपियन गैरी कास्पारोव को हराया | | 2011 | IBM Watson ने Jeopardy! जीता | | 2012 | AlexNet ने ImageNet जीता - डीप लर्निंग ने उड़ान भरी | | 2016 | DeepMind के AlphaGo ने विश्व Go चैंपियन ली सेडोल को हराया | | 2017 | Google ने Transformer आर्किटेक्चर पेपर प्रकाशित किया | | 2022 | ChatGPT लॉन्च हुआ और दो महीने में 100 मिलियन यूज़र्स तक पहुँचा |
2017 में, Google के शोधकर्ताओं ने Attention Is All You Need शीर्षक वाला एक पेपर प्रकाशित किया, जिसमें Transformer आर्किटेक्चर पेश किया गया। इस डिज़ाइन ने AI मॉडलों को भाषा को पहले से कहीं अधिक प्रभावी ढंग से प्रोसेस करने में सक्षम बनाया।
Transformers आज के large language models - GPT-4, Claude, Gemini और अन्य - को शक्ति प्रदान करते हैं। यही कारण है कि आप अभी एक AI चैटबॉट के साथ स्वाभाविक बातचीत कर सकते हैं।
2017 में Transformer आर्किटेक्चर पेश करने वाले पेपर का नाम क्या था?
AI पहले से कहीं तेज़ी से विकसित हो रही है। हम ऐसे मल्टीमोडल मॉडल देख रहे हैं जो टेक्स्ट, इमेज और ऑडियो को एक साथ संभालते हैं। अगला अध्याय अभी लिखा जा रहा है - और इतिहास को समझना आपको यह समझने में मदद करता है कि हम किस दिशा में जा रहे हैं।
AI विंटर्स का कारण क्या था?