इस कार्यक्रम के दौरान, हमने खोजा है कि डेटा, एल्गोरिदम और न्यूरल नेटवर्क कैसे मिलकर बुद्धिमान प्रणालियाँ बनाते हैं। लेकिन ज़िम्मेदारी के बिना बुद्धिमत्ता वास्तविक नुकसान पहुँचा सकती है। इस अंतिम पाठ में, हम AI के मानवीय पक्ष की जाँच करेंगे - वे पूर्वाग्रह जो यह विरासत में लेता है, नैतिक दुविधाएँ जो यह उठाता है, और हम सब इसके बारे में क्या कर सकते हैं।
AI पूर्वाग्रह तब होता है जब कोई सिस्टम ऐसे परिणाम देता है जो कुछ लोगों के समूहों के लिए व्यवस्थित रूप से अनुचित हैं। AI जानबूझकर पक्षपाती नहीं है - यह बस अपने ट्रेनिंग डेटा के पैटर्न और अपने डिज़ाइनरों की धारणाओं को प्रतिबिंबित करता है।
Amazon का हायरिंग टूल (2018) Amazon ने नौकरी आवेदनों की स्क्रीनिंग के लिए AI बनाया। इसे पिछले दस वर्षों में जमा किए गए CV पर ट्रेन किया गया - एक ऐसा समय जब टेक इंडस्ट्री में पुरुषों का भारी बहुमत था। AI ने उन CV को कम अंक देना सीखा जिनमें "women's" शब्द था (जैसे "women's chess club") और सभी महिला विश्वविद्यालयों के स्नातकों को डाउनग्रेड किया। Amazon ने यह टूल बंद कर दिया।
फेशियल रिकग्निशन की विफलताएँ MIT में Joy Buolamwini के शोध में पाया गया कि व्यावसायिक फेशियल रिकग्निशन सिस्टम में गहरी त्वचा वाली महिलाओं के लिए 34.7% तक की त्रुटि दर थी, जबकि हल्की त्वचा वाले पुरुषों के लिए केवल 0.8%। ट्रेनिंग डेटा ने बस सभी चेहरों का समान प्रतिनिधित्व नहीं किया।
Amazon के AI हायरिंग टूल ने महिलाओं के साथ भेदभाव क्यों किया?
पूर्वाग्रह AI सिस्टम में हर चरण पर प्रवेश कर सकता है:
Sign in to join the discussion
AI शून्य से पूर्वाग्रह नहीं बनाता। यह मानवीय निर्णयों, ऐतिहासिक रिकॉर्ड और सामाजिक संरचनाओं में पहले से मौजूद पूर्वाग्रहों को बढ़ाता है। डेटा एक दर्पण है - और कभी-कभी हमें वह पसंद नहीं आता जो यह प्रतिबिंबित करता है।
AI अब यथार्थवादी नकली वीडियो, इमेज और ऑडियो बना सकता है - जिन्हें डीपफेक कहते हैं। जबकि इस तकनीक के रचनात्मक उपयोग हैं (फ़िल्म इफ़ेक्ट, एक्सेसिबिलिटी टूल), यह गंभीर जोखिम भी पैदा करती है:
डीपफेक का पता लगाना एक हथियारों की दौड़ बन रहा है। जैसे-जैसे जनरेशन टूल बेहतर होते हैं, डिटेक्शन टूल भी बेहतर होने चाहिए - लेकिन वे हमेशा पीछे-पीछे भागते रहते हैं।
2019 में, अपराधियों ने AI-जनरेटेड वॉइस क्लोनिंग का उपयोग करके एक CEO की नकल की और एक कर्मचारी को £220,000 ट्रांसफर करने के लिए धोखा दिया। आवाज़ इतनी विश्वसनीय थी कि कर्मचारी को कभी शक नहीं हुआ कि यह नकली है।
अगर आपने किसी विश्व नेता का युद्ध घोषित करते हुए वीडियो देखा, तो आप कैसे सत्यापित करेंगे कि यह असली है या नहीं? आप किन उपकरणों या स्रोतों पर भरोसा करेंगे? डीपफेक की दुनिया में, मीडिया के बारे में आलोचनात्मक सोच एक जीवन कौशल बन जाती है।
AI उन कार्यों को स्वचालित करता है जो पहले मनुष्यों द्वारा किए जाते थे। यह अवसर और चुनौतियाँ दोनों पैदा करता है:
स्वचालन के जोखिम वाले कार्य:
स्वचालित होने की कम संभावना वाले कार्य:
मुख्य अंतर कार्यों को स्वचालित करने और नौकरियों को बदलने के बीच है। अधिकांश नौकरियाँ कई कार्यों का संग्रह हैं - AI एक भूमिका के भीतर कुछ कार्यों को स्वचालित करता है, पूरी भूमिका को खत्म करने के बजाय।
किस प्रकार का काम AI द्वारा पूरी तरह स्वचालित होने की सबसे कम संभावना है?
AI सिस्टम डेटा के भूखे हैं, और वह भूख महत्वपूर्ण गोपनीयता प्रश्न उठाती है:
तनाव वास्तविक है: अधिक डेटा आम तौर पर AI को बेहतर बनाता है, लेकिन अधिक डेटा एकत्र करना व्यक्तिगत गोपनीयता का उल्लंघन कर सकता है।
शोधकर्ताओं ने प्रदर्शित किया कि AI एक तस्वीर से किसी व्यक्ति की यौन अभिविन्यास की भविष्यवाणी मनुष्यों से अधिक सटीकता से कर सकता है - गोपनीयता, सहमति और AI को क्या अनुमान लगाने की अनुमति होनी चाहिए, इसकी सीमाओं के बारे में गहरे प्रश्न उठाते हुए।
अग्रणी संगठन AI को ज़िम्मेदारी से बनाने के सिद्धांतों के एक सेट पर एकमत हुए हैं:
AI को सभी लोगों के साथ समान रूप से व्यवहार करना चाहिए। मॉडलों का विभिन्न जनसांख्यिकीय समूहों पर परीक्षण किया जाना चाहिए ताकि कोई समूह वंचित न हो।
AI निर्णयों से प्रभावित लोगों को यह समझने का अधिकार है कि वे निर्णय कैसे लिए गए। ब्लैक-बॉक्स मॉडलों के साथ स्पष्टीकरण होने चाहिए।
जब AI नुकसान पहुँचाए तो स्पष्ट ज़िम्मेदारी होनी चाहिए। "एल्गोरिदम ने किया" स्वीकार्य बचाव नहीं है।
AI सिस्टम को डेटा सुरक्षा कानूनों और व्यक्तिगत अधिकारों का सम्मान करना चाहिए। डेटा संग्रह वास्तव में आवश्यक तक सीमित होना चाहिए।
AI को तैनाती से पहले कठोर परीक्षण से गुज़रना चाहिए, विशेष रूप से स्वास्थ्य सेवा, आपराधिक न्याय और वित्त जैसे उच्च-जोखिम वाले क्षेत्रों में।
अगर कोई AI सिस्टम किसी व्यक्ति को ऋण देने से मना करता है, तो ज़िम्मेदार कौन है - मॉडल बनाने वाला डेवलपर, इसे तैनात करने वाला बैंक, या इसे ट्रेन करने वाला डेटा? AI में जवाबदेही सबसे कठिन सवालों में से एक है जिनका हम सामना कर रहे हैं।
कौन सा ज़िम्मेदार AI सिद्धांत कहता है कि लोगों को समझना चाहिए कि AI निर्णय कैसे लिए जाते हैं?
फ़र्क लाने के लिए आपको AI इंजीनियर होने की ज़रूरत नहीं। यहाँ बताया गया है कि आप अधिक ज़िम्मेदार AI में कैसे योगदान दे सकते हैं:
तकनीक तटस्थ नहीं है। AI बनाने, तैनात करने और नियंत्रित करने वाले लोगों द्वारा किए गए चुनाव उस दुनिया को आकार देते हैं जिसमें हम सब रहते हैं। आपकी जागरूकता और आपकी आवाज़ मायने रखती है।
बधाई - आपने लेवल 2: फ़ाउंडेशन पूरा कर लिया है! अब आप समझते हैं कि डेटा, एल्गोरिदम, न्यूरल नेटवर्क, ट्रेनिंग और नैतिकता AI की दुनिया में कैसे एक साथ आते हैं। अगला कदम है हाथों से करके सीखना।