AI EducademyAIEducademy
🌳

AI की नींव

🌱
AI Seeds

शून्य से शुरू करें

🌿
AI Sprouts

नींव बनाएं

🌳
AI Branches

व्यवहार में लागू करें

🏕️
AI Canopy

गहराई में जाएं

🌲
AI Forest

AI में महारत हासिल करें

🔨

AI में महारत

✏️
AI Sketch

शून्य से शुरू करें

🪨
AI Chisel

नींव बनाएं

⚒️
AI Craft

व्यवहार में लागू करें

💎
AI Polish

गहराई में जाएं

🏆
AI Masterpiece

AI में महारत हासिल करें

🚀

करियर रेडी

🚀
इंटरव्यू लॉन्चपैड

अपनी यात्रा शुरू करें

🌟
व्यवहारिक इंटरव्यू में महारत

सॉफ्ट स्किल्स में महारत

💻
तकनीकी इंटरव्यू

कोडिंग राउंड में सफल हों

🤖
AI और ML इंटरव्यू

ML इंटरव्यू में महारत

🏆
ऑफर और उससे आगे

सबसे अच्छा ऑफर पाएं

सभी कार्यक्रम देखें→

लैब

7 प्रयोग लोड हुए
🧠न्यूरल नेटवर्क प्लेग्राउंड🤖AI या इंसान?💬प्रॉम्प्ट लैब🎨इमेज जनरेटर😊सेंटिमेंट एनालाइज़र💡चैटबॉट बिल्डर⚖️एथिक्स सिमुलेटर
🎯मॉक इंटरव्यूलैब में जाएँ→
nav.journeyब्लॉग
🎯
हमारे बारे में

हर जगह, हर किसी के लिए AI शिक्षा सुलभ बनाना

❓
nav.faq

Common questions answered

✉️
Contact

Get in touch with us

⭐
ओपन सोर्स

GitHub पर सार्वजनिक रूप से निर्मित

सीखना शुरू करें - यह मुफ्त है
AI EducademyAIEducademy

MIT लाइसेंस - ओपन सोर्स

सीखें

  • कार्यक्रम
  • पाठ
  • लैब

समुदाय

  • GitHub
  • योगदान करें
  • आचार संहिता
  • हमारे बारे में
  • सामान्य प्रश्न

सहायता

  • कॉफ़ी खरीदें ☕
  • footer.terms
  • footer.privacy
  • footer.contact
AI और इंजीनियरिंग प्रोग्राम›🌿 AI Sprouts›पाठ›AI नैतिकता और पूर्वाग्रह
⚖️
AI Sprouts • शुरुआती⏱️ 15 मिनट पढ़ने का समय

AI नैतिकता और पूर्वाग्रह

AI नैतिकता और पूर्वाग्रह

इस कार्यक्रम के दौरान, हमने खोजा है कि डेटा, एल्गोरिदम और न्यूरल नेटवर्क कैसे मिलकर बुद्धिमान प्रणालियाँ बनाते हैं। लेकिन ज़िम्मेदारी के बिना बुद्धिमत्ता वास्तविक नुकसान पहुँचा सकती है। इस अंतिम पाठ में, हम AI के मानवीय पक्ष की जाँच करेंगे - वे पूर्वाग्रह जो यह विरासत में लेता है, नैतिक दुविधाएँ जो यह उठाता है, और हम सब इसके बारे में क्या कर सकते हैं।

AI पूर्वाग्रह क्या है?

AI पूर्वाग्रह तब होता है जब कोई सिस्टम ऐसे परिणाम देता है जो कुछ लोगों के समूहों के लिए व्यवस्थित रूप से अनुचित हैं। AI जानबूझकर पक्षपाती नहीं है - यह बस अपने ट्रेनिंग डेटा के पैटर्न और अपने डिज़ाइनरों की धारणाओं को प्रतिबिंबित करता है।

वास्तविक-दुनिया के उदाहरण

Amazon का हायरिंग टूल (2018) Amazon ने नौकरी आवेदनों की स्क्रीनिंग के लिए AI बनाया। इसे पिछले दस वर्षों में जमा किए गए CV पर ट्रेन किया गया - एक ऐसा समय जब टेक इंडस्ट्री में पुरुषों का भारी बहुमत था। AI ने उन CV को कम अंक देना सीखा जिनमें "women's" शब्द था (जैसे "women's chess club") और सभी महिला विश्वविद्यालयों के स्नातकों को डाउनग्रेड किया। Amazon ने यह टूल बंद कर दिया।

फेशियल रिकग्निशन की विफलताएँ MIT में Joy Buolamwini के शोध में पाया गया कि व्यावसायिक फेशियल रिकग्निशन सिस्टम में गहरी त्वचा वाली महिलाओं के लिए 34.7% तक की त्रुटि दर थी, जबकि हल्की त्वचा वाले पुरुषों के लिए केवल 0.8%। ट्रेनिंग डेटा ने बस सभी चेहरों का समान प्रतिनिधित्व नहीं किया।

एक तराज़ू जिसके एक तरफ डेटासेट है और दूसरी तरफ विविध मानव आकृतियाँ, जो AI में संतुलित, प्रतिनिधि डेटा की आवश्यकता को दर्शाता है
निष्पक्ष AI के लिए संतुलित डेटा चाहिए - जब पलड़ा झुकता है, तो परिणाम भी झुकते हैं।
🧠त्वरित जांच

Amazon के AI हायरिंग टूल ने महिलाओं के साथ भेदभाव क्यों किया?

पूर्वाग्रह कहाँ से आता है?

पूर्वाग्रह AI सिस्टम में हर चरण पर प्रवेश कर सकता है:

  • डेटा संग्रह - अगर डेटा एक समूह का अधिक प्रतिनिधित्व करता है, तो मॉडल उस समूह को प्राथमिकता देना सीखता है।
  • लेबलिंग - मानव एनोटेटर डेटा टैग करते समय अपने अचेतन पूर्वाग्रह लाते हैं।
  • फ़ीचर चयन - कौन से वेरिएबल शामिल (या बाहर) करने हैं, यह चुनना धारणाएँ एम्बेड कर सकता है।
  • मूल्यांकन - अगर हम केवल कुछ जनसांख्यिकीय समूहों पर टेस्ट करते हैं, तो दूसरों पर विफलताएँ छूट जाती हैं।
पाठ 5 / 160% पूर्ण
←AI मॉडल की ट्रेनिंग

Discussion

Sign in to join the discussion

lessons.suggestEdit
💡

AI शून्य से पूर्वाग्रह नहीं बनाता। यह मानवीय निर्णयों, ऐतिहासिक रिकॉर्ड और सामाजिक संरचनाओं में पहले से मौजूद पूर्वाग्रहों को बढ़ाता है। डेटा एक दर्पण है - और कभी-कभी हमें वह पसंद नहीं आता जो यह प्रतिबिंबित करता है।

डीपफेक और गलत सूचना

AI अब यथार्थवादी नकली वीडियो, इमेज और ऑडियो बना सकता है - जिन्हें डीपफेक कहते हैं। जबकि इस तकनीक के रचनात्मक उपयोग हैं (फ़िल्म इफ़ेक्ट, एक्सेसिबिलिटी टूल), यह गंभीर जोखिम भी पैदा करती है:

  • राजनीतिक हेरफेर - सार्वजनिक हस्तियों के ऐसे वीडियो जिनमें वे ऐसी बातें कहते हैं जो उन्होंने कभी नहीं कहीं।
  • धोखाधड़ी - अधिकारियों की नकल करने और धोखाधड़ी के लेन-देन को अधिकृत करने के लिए वॉइस क्लोनिंग।
  • उत्पीड़न - निजी व्यक्तियों को लक्षित करने वाली बिना सहमति की नकली इमेजरी।

डीपफेक का पता लगाना एक हथियारों की दौड़ बन रहा है। जैसे-जैसे जनरेशन टूल बेहतर होते हैं, डिटेक्शन टूल भी बेहतर होने चाहिए - लेकिन वे हमेशा पीछे-पीछे भागते रहते हैं।

🤯

2019 में, अपराधियों ने AI-जनरेटेड वॉइस क्लोनिंग का उपयोग करके एक CEO की नकल की और एक कर्मचारी को £220,000 ट्रांसफर करने के लिए धोखा दिया। आवाज़ इतनी विश्वसनीय थी कि कर्मचारी को कभी शक नहीं हुआ कि यह नकली है।

🤔
Think about it:

अगर आपने किसी विश्व नेता का युद्ध घोषित करते हुए वीडियो देखा, तो आप कैसे सत्यापित करेंगे कि यह असली है या नहीं? आप किन उपकरणों या स्रोतों पर भरोसा करेंगे? डीपफेक की दुनिया में, मीडिया के बारे में आलोचनात्मक सोच एक जीवन कौशल बन जाती है।

नौकरी विस्थापन और आर्थिक प्रभाव

AI उन कार्यों को स्वचालित करता है जो पहले मनुष्यों द्वारा किए जाते थे। यह अवसर और चुनौतियाँ दोनों पैदा करता है:

स्वचालन के जोखिम वाले कार्य:

  • डेटा एंट्री और प्रोसेसिंग
  • बेसिक कस्टमर सर्विस (चैटबॉट)
  • रूटीन कानूनी दस्तावेज़ समीक्षा
  • साधारण मेडिकल इमेज स्क्रीनिंग

स्वचालित होने की कम संभावना वाले कार्य:

  • रचनात्मक समस्या-समाधान
  • जटिल मानवीय संबंध (थेरेपी, शिक्षण, नेतृत्व)
  • अप्रत्याशित वातावरण में शारीरिक निपुणता की आवश्यकता वाला काम
  • नैतिक निर्णय और सूक्ष्म निर्णय लेना

मुख्य अंतर कार्यों को स्वचालित करने और नौकरियों को बदलने के बीच है। अधिकांश नौकरियाँ कई कार्यों का संग्रह हैं - AI एक भूमिका के भीतर कुछ कार्यों को स्वचालित करता है, पूरी भूमिका को खत्म करने के बजाय।

🧠त्वरित जांच

किस प्रकार का काम AI द्वारा पूरी तरह स्वचालित होने की सबसे कम संभावना है?

गोपनीयता संबंधी चिंताएँ

AI सिस्टम डेटा के भूखे हैं, और वह भूख महत्वपूर्ण गोपनीयता प्रश्न उठाती है:

  • निगरानी - सार्वजनिक स्थानों में फेशियल रिकग्निशन बिना सहमति के बड़े पैमाने पर ट्रैकिंग सक्षम करता है।
  • डेटा संग्रह - वॉइस असिस्टेंट, फ़िटनेस ट्रैकर और सोशल मीडिया लगातार व्यक्तिगत जानकारी एकत्र करते हैं।
  • प्रोफ़ाइलिंग - AI प्रतीत होने वाले सामान्य डेटा पैटर्न से संवेदनशील जानकारी (स्वास्थ्य स्थिति, राजनीतिक विचार, कामुकता) का अनुमान लगा सकता है।

तनाव वास्तविक है: अधिक डेटा आम तौर पर AI को बेहतर बनाता है, लेकिन अधिक डेटा एकत्र करना व्यक्तिगत गोपनीयता का उल्लंघन कर सकता है।

🤯

शोधकर्ताओं ने प्रदर्शित किया कि AI एक तस्वीर से किसी व्यक्ति की यौन अभिविन्यास की भविष्यवाणी मनुष्यों से अधिक सटीकता से कर सकता है - गोपनीयता, सहमति और AI को क्या अनुमान लगाने की अनुमति होनी चाहिए, इसकी सीमाओं के बारे में गहरे प्रश्न उठाते हुए।

ज़िम्मेदार AI सिद्धांत

अग्रणी संगठन AI को ज़िम्मेदारी से बनाने के सिद्धांतों के एक सेट पर एकमत हुए हैं:

निष्पक्षता

AI को सभी लोगों के साथ समान रूप से व्यवहार करना चाहिए। मॉडलों का विभिन्न जनसांख्यिकीय समूहों पर परीक्षण किया जाना चाहिए ताकि कोई समूह वंचित न हो।

पारदर्शिता

AI निर्णयों से प्रभावित लोगों को यह समझने का अधिकार है कि वे निर्णय कैसे लिए गए। ब्लैक-बॉक्स मॉडलों के साथ स्पष्टीकरण होने चाहिए।

जवाबदेही

जब AI नुकसान पहुँचाए तो स्पष्ट ज़िम्मेदारी होनी चाहिए। "एल्गोरिदम ने किया" स्वीकार्य बचाव नहीं है।

गोपनीयता

AI सिस्टम को डेटा सुरक्षा कानूनों और व्यक्तिगत अधिकारों का सम्मान करना चाहिए। डेटा संग्रह वास्तव में आवश्यक तक सीमित होना चाहिए।

सुरक्षा

AI को तैनाती से पहले कठोर परीक्षण से गुज़रना चाहिए, विशेष रूप से स्वास्थ्य सेवा, आपराधिक न्याय और वित्त जैसे उच्च-जोखिम वाले क्षेत्रों में।

🤔
Think about it:

अगर कोई AI सिस्टम किसी व्यक्ति को ऋण देने से मना करता है, तो ज़िम्मेदार कौन है - मॉडल बनाने वाला डेवलपर, इसे तैनात करने वाला बैंक, या इसे ट्रेन करने वाला डेटा? AI में जवाबदेही सबसे कठिन सवालों में से एक है जिनका हम सामना कर रहे हैं।

🧠त्वरित जांच

कौन सा ज़िम्मेदार AI सिद्धांत कहता है कि लोगों को समझना चाहिए कि AI निर्णय कैसे लिए जाते हैं?

एक शिक्षार्थी के रूप में आप क्या कर सकते हैं

फ़र्क लाने के लिए आपको AI इंजीनियर होने की ज़रूरत नहीं। यहाँ बताया गया है कि आप अधिक ज़िम्मेदार AI में कैसे योगदान दे सकते हैं:

  • सवाल पूछें - जब आपका सामना किसी AI सिस्टम से हो, तो पूछें: इसे किसके डेटा ने ट्रेन किया? किसे फ़ायदा होता है और किसे नुकसान हो सकता है?
  • जानकारी रखें - AI नैतिकता में विकास का पालन करें। स्थिति तेज़ी से बदलती है।
  • पारदर्शिता की माँग करें - उन संगठनों और उत्पादों का समर्थन करें जो बताते हैं कि उनका AI कैसे काम करता है।
  • दृष्टिकोणों में विविधता लाएँ - अगर आप AI बनाने जाते हैं, तो सुनिश्चित करें कि आपकी टीमें और आपका डेटा उन लोगों की विविधता का प्रतिनिधित्व करें जिनकी सेवा सिस्टम करेगा।
  • आलोचनात्मक सोचें - हर AI एप्लिकेशन अच्छा विचार नहीं है, भले ही यह तकनीकी रूप से संभव हो।
💡

तकनीक तटस्थ नहीं है। AI बनाने, तैनात करने और नियंत्रित करने वाले लोगों द्वारा किए गए चुनाव उस दुनिया को आकार देते हैं जिसमें हम सब रहते हैं। आपकी जागरूकता और आपकी आवाज़ मायने रखती है।

मुख्य सारांश

  • AI पूर्वाग्रह पक्षपाती डेटा से आता है, एल्गोरिदम स्वयं पक्षपाती नहीं होता।
  • डीपफेक विश्वास, सुरक्षा और गोपनीयता के लिए गंभीर जोखिम पैदा करते हैं।
  • AI पूरी नौकरियाँ बदलने के बजाय कार्यों को स्वचालित करता है - लेकिन प्रभाव फिर भी महत्वपूर्ण है।
  • जब AI सिस्टम बड़े पैमाने पर व्यक्तिगत जानकारी एकत्र और अनुमान लगाते हैं तो गोपनीयता खतरे में है।
  • ज़िम्मेदार AI निष्पक्षता, पारदर्शिता, जवाबदेही, गोपनीयता और सुरक्षा पर आधारित है।
  • AI कैसे बनाया और उपयोग किया जाता है, इसे आकार देने में हर किसी की भूमिका है।

बधाई - आपने लेवल 2: फ़ाउंडेशन पूरा कर लिया है! अब आप समझते हैं कि डेटा, एल्गोरिदम, न्यूरल नेटवर्क, ट्रेनिंग और नैतिकता AI की दुनिया में कैसे एक साथ आते हैं। अगला कदम है हाथों से करके सीखना।