AI EducademyAIEducademy
🌳

AI की नींव

🌱
AI Seeds

शून्य से शुरू करें

🌿
AI Sprouts

नींव बनाएं

🌳
AI Branches

व्यवहार में लागू करें

🏕️
AI Canopy

गहराई में जाएं

🌲
AI Forest

AI में महारत हासिल करें

🔨

AI में महारत

✏️
AI Sketch

शून्य से शुरू करें

🪨
AI Chisel

नींव बनाएं

⚒️
AI Craft

व्यवहार में लागू करें

💎
AI Polish

गहराई में जाएं

🏆
AI Masterpiece

AI में महारत हासिल करें

🚀

करियर रेडी

🚀
इंटरव्यू लॉन्चपैड

अपनी यात्रा शुरू करें

🌟
व्यवहारिक इंटरव्यू में महारत

सॉफ्ट स्किल्स में महारत

💻
तकनीकी इंटरव्यू

कोडिंग राउंड में सफल हों

🤖
AI और ML इंटरव्यू

ML इंटरव्यू में महारत

🏆
ऑफर और उससे आगे

सबसे अच्छा ऑफर पाएं

सभी कार्यक्रम देखें→

लैब

7 प्रयोग लोड हुए
🧠न्यूरल नेटवर्क प्लेग्राउंड🤖AI या इंसान?💬प्रॉम्प्ट लैब🎨इमेज जनरेटर😊सेंटिमेंट एनालाइज़र💡चैटबॉट बिल्डर⚖️एथिक्स सिमुलेटर
🎯मॉक इंटरव्यूलैब में जाएँ→
nav.journeyब्लॉग
🎯
हमारे बारे में

हर जगह, हर किसी के लिए AI शिक्षा सुलभ बनाना

❓
nav.faq

Common questions answered

✉️
Contact

Get in touch with us

⭐
ओपन सोर्स

GitHub पर सार्वजनिक रूप से निर्मित

सीखना शुरू करें - यह मुफ्त है
AI EducademyAIEducademy

MIT लाइसेंस - ओपन सोर्स

सीखें

  • कार्यक्रम
  • पाठ
  • लैब

समुदाय

  • GitHub
  • योगदान करें
  • आचार संहिता
  • हमारे बारे में
  • सामान्य प्रश्न

सहायता

  • कॉफ़ी खरीदें ☕
  • footer.terms
  • footer.privacy
  • footer.contact
AI और इंजीनियरिंग प्रोग्राम›✏️ AI Sketch›पाठ›Arrays और Hash Maps
📦
AI Sketch • मध्यम⏱️ 15 मिनट पढ़ने का समय

Arrays और Hash Maps

AI में डेटा स्टोरेज क्यों ज़रूरी है

हर AI system को डेटा स्टोर और तेज़ी से एक्सेस करना होता है। चाहे एक image के pixel values हों, 50,000 शब्दों की vocabulary हो, या लाखों users की preferences - सही data structure चुनना तय करता है कि AI कितनी तेज़ी से काम करेगा।

दो structures सबसे ज़्यादा इस्तेमाल होते हैं: arrays और hash maps। इन्हें समझ लिया तो AI pipeline की नींव पक्की।

Arrays - क्रम में रखी गई लिस्ट

Array एक नंबर वाली लिस्ट है जहाँ items मेमोरी में एक साथ रखे जाते हैं। हर item का एक index होता है - जो zero से शुरू होता है।

index:   0       1       2       3       4
value: ["cat", "dog", "bird", "fish", "frog"]

चूँकि items साथ-साथ बैठे हैं, किसी भी position पर सीधे पहुँच सकते हैं। Item 3 चाहिए? बस - कोई searching नहीं। यही O(1) access है - 10 items हों या 10 million, समय बराबर लगता है।

पाँच elements का array जिसमें index 0 से 4 तक हैं, index 3 पर direct access दिखा रहा है
Array में index के ज़रिए किसी भी position पर सीधे पहुँचा जा सकता है।

Arrays कहाँ चमकते हैं

  • Feature vectors: एक image को 784 numbers के array (28×28 pixels) से represent किया जाता है।
  • Embeddings: Language models शब्दों के मतलब सैकड़ों floating-point numbers के arrays में स्टोर करते हैं।
  • Batch processing: Training data arrays में लोड होता है ताकि GPU हज़ारों examples एक साथ process कर सके।

कमज़ोरी

बीच में item insert या delete करना महंगा है - बाद के सारे items को शिफ्ट करना पड़ता है। यह O(n) है - जितने ज़्यादा items, उतना ज़्यादा समय।

🤔
Think about it:

अगर 10,000 गानों की playlist में position 5 पर नया गाना डालना हो, तो position 5 के बाद के हर गाने को शिफ्ट करना पड़ेगा। कोई streaming service इसे बिना slow हुए कैसे handle करेगी?

Hash Maps - नाम से तुरंत ढूँढो

Hash map (जिसे dictionary या hash table भी कहते हैं) डेटा को key-value pairs में स्टोर करता है। Index number की जगह एक meaningful key से access करते हैं।

word_counts = {
  "hello": 42,
  "world": 37,
  "AI": 156
}

"AI" का count चाहिए? Hash map एक hash function से key को internally index में बदलता है। नतीजा? औसतन lookup - arrays जैसा, बस numbers की जगह names से।

पाठ 1 / 100% पूर्ण
←प्रोग्राम पर वापस

Discussion

Sign in to join the discussion

lessons.suggestEdit
O(1)
🤯

Python की dictionaries hash maps हैं। जब ChatGPT training के दौरान word frequencies गिनता है, तो hash-map जैसी structures से पूरे internet के text में अरबों शब्दों को track करता है।

AI में Hash Maps के उपयोग

  • Vocabulary mapping: "brilliant" जैसे शब्द को token ID 8921 में बदलना।
  • Frequency counting: Dataset में हर शब्द कितनी बार आया? Hash map एक ही pass में जवाब दे देता है।
  • Caching: अगर AI ने input X के लिए prediction पहले ही calculate कर लिया है, तो उसे स्टोर कर लो - दोबारा compute नहीं करना पड़ेगा।

Time Complexity - सरल भाषा में

| Operation | Array | Hash Map | |-----------|-------|----------| | Index से access | O(1) ⚡ | N/A | | Key से access | O(n) 🐢 | O(1) ⚡ | | End में insert | O(1) ⚡ | O(1) ⚡ | | बीच में insert | O(n) 🐢 | N/A | | Value ढूँढना | O(n) 🐢 | O(1) ⚡ |

O(1) का मतलब "साइज़ कितना भी हो, instant" और O(n) का मतलब "डेटा बड़ा तो slow।"

🧠त्वरित जांच

आपके पास 100,000 user profiles हैं और username से user ढूँढना है। कौन सा structure सबसे तेज़ होगा?

Common Pattern: Frequency Counting

Interviews और AI दोनों में सबसे उपयोगी patterns में से एक - occurrences गिनना:

counts = {}
for each word in text:
    if word in counts:
        counts[word] = counts[word] + 1
    else:
        counts[word] = 1

Text का एक ही pass - और हर शब्द की frequency मिल गई। Language models भी बड़े scale पर यही approach इस्तेमाल करते हैं।

Common Pattern: Two-Sum Problem

एक array of numbers और एक target दिया है - दो numbers ढूँढो जिनका जोड़ target बने। Naive तरीका हर pair check करता है - O(n²)। Smart तरीका hash map इस्तेमाल करता है:

seen = {}
for each number in array:
    complement = target - number
    if complement in seen:
        return [seen[complement], current_index]
    seen[number] = current_index

एक pass, O(n) time। Hash map याद रखता है कि पहले क्या-क्या देखा है।

🧠त्वरित जांच

Two-sum में hash map वाला approach हर pair check करने से तेज़ क्यों है?

कब कौन सा चुनें

  • Arrays जब order मायने रखे, position से access करना हो, या सब कुछ sequentially process करना हो (जैसे image के pixels)।
  • Hash maps जब key से तेज़ lookup चाहिए, occurrences गिनने हों, या कुछ exist करता है ये जल्दी check करना हो।
🤔
Think about it:

एक recommendation engine को suggest करने से पहले check करना है कि user ने film पहले देखी है या नहीं। Watch history array में रखोगे या hash map में? क्या trade-offs हो सकते हैं?

🧠त्वरित जांच

AI model word embeddings को 300 numbers के arrays में स्टोर करता है। Arrays यहाँ अच्छा choice क्यों हैं?

मुख्य बातें

  • Arrays index से O(1) access देते हैं और numerical AI (images, embeddings, tensors) की रीढ़ हैं।
  • Hash maps key से O(1) access देते हैं और lookups, counting, caching के लिए ज़रूरी हैं।
  • सही structure चुनना O(n²) algorithm को O(n) बना सकता है - लाखों data points पर यह बहुत बड़ा फ़र्क है।
  • असल में ज़्यादातर AI pipelines दोनों इस्तेमाल करते हैं: numerical computation के लिए arrays, metadata lookups के लिए hash maps।