AI EducademyAIEducademy
కార్యక్రమాలుల్యాబ్బ్లాగ్మా గురించి
సైన్ ఇన్
AI EducademyAIEducademy

అందరికీ, ప్రతి భాషలో ఉచిత AI విద్య.

నేర్చుకోండి

  • ప్రోగ్రాములు
  • పాఠాలు
  • ల్యాబ్
  • డాష్‌బోర్డ
  • మా గురించి

సంఘం

  • GitHub
  • సహకరించండి
  • ప్రవర్తనా నియమావళి

మద్దతు

  • కాఫీ కొనండి ☕

అందరికీ ఉచిత AI విద్య

MIT లైసెన్స్ — ఓపెన్ సోర్స్

Programs›🌳 AI Branches›Lessons›చాట్‌బాట్‌లు మరియు NLP — మెషీన్లకు భాషను అర్థం చేసుకోవడం నేర్పించడం
💬
AI Branches • మధ్యస్థం⏱️ 35 నిమిషాల పఠన సమయం

చాట్‌బాట్‌లు మరియు NLP — మెషీన్లకు భాషను అర్థం చేసుకోవడం నేర్పించడం

మెషీన్లతో మాట్లాడటం 🗣️

మీరు ప్రతిరోజూ AI తో మాట్లాడుతుంటారు — Siri ని వాతావరణం అడగడం, కస్టమర్ సర్వీస్ బాట్‌తో చాటింగ్ చేయడం లేదా ChatGPT కి ప్రాంప్ట్ ఇవ్వడం. కానీ మెషీన్ మీ మాటలను ఎలా అర్థం చేసుకుంటుందో ఎప్పుడైనా ఆలోచించారా?

దీనికి సమాధానం Natural Language Processing (NLP) — మెషీన్లకు మానవ భాషను చదవడం, అర్థం చేసుకోవడం మరియు ఉత్పత్తి చేసే సామర్థ్యాన్ని ఇచ్చే AI శాఖ. దాని లోతుల్లోకి తొంగి చూద్దాం.

వినియోగదారు నుండి NLP పొరల గుండా చాట్‌బాట్ ప్రతిస్పందనకు ఒక సందేశం ప్రయాణిస్తున్నది
NLP ముడి వచనాన్ని మెషీన్ అర్థం చేసుకోగల అర్థంగా మారుస్తుంది

NLP అంటే ఏమిటి? 🤔

Natural Language Processing అనేది భాషాశాస్త్రం, కంప్యూటర్ సైన్స్ మరియు AI కలిసే చోట ఉంటుంది. దీని లక్ష్యం చాలా సరళంగా కనిపిస్తుంది: మానవులు అర్థం చేసుకున్నట్లే కంప్యూటర్లు కూడా భాషను అర్థం చేసుకునేలా చేయడం.

ఇది ఎందుకు కష్టం? ఎందుకంటే భాష చాలా గందరగోళంగా ఉంటుంది:

  • "I saw her duck" — ఆమె వంగిందా, లేక మీరు ఆమె బాతును చూశారా?
  • "Let's eat, Grandma" vs "Let's eat Grandma" — ఒక కామా ప్రాణాలు కాపాడుతుంది!
  • వ్యంగ్యం: "Oh great, another Monday" అంటే నిజంగా గొప్పదని కాదు
🤯

భూమి మీద సుమారు 7,000 భాషలు మాట్లాడబడుతున్నాయి, ప్రతి దానికి ప్రత్యేక వ్యాకరణం, జాతీయాలు మరియు సాంస్కృతిక సూక్ష్మతలు ఉన్నాయి. GPT-4 వంటి ఆధునిక NLP మోడల్స్ 100 కంటే ఎక్కువ భాషలను నిర్వహించగలవు — కానీ వేలకొద్దీ భాషలకు ఇంకా మద్దతు లేదు.


పరిణామం: నియమాల నుండి న్యూరల్ నెట్‌వర్క్‌ల వరకు 📜➡️🧠

NLP మూడు ప్రధాన యుగాలను దాటింది:

యుగం 1: నియమ-ఆధారిత (1960లు–1990లు)

  • ప్రోగ్రామర్లు వ్యాకరణ నియమాలను చేతితో రాసేవారు
  • "వినియోగదారు X అంటే, Y తో సమాధానం ఇవ్వు"
  • బలహీనమైనది — ఊహించని దేనినైనా నిర్వహించలేకపోయేది

యుగం 2: సాంఖ్యక (1990లు–2010లు)

  • మోడల్స్ సంభావ్యత ఉపయోగించి డేటా నుండి నమూనాలను నేర్చుకునేవి
  • ఉదాహరణ: ఏ పద సమ్మేళనాలు స్పామ్‌ను సూచిస్తాయో నేర్చుకున్న స్పామ్ ఫిల్టర్లు
  • మెరుగైనది, కానీ సందర్భాన్ని అర్థం చేసుకోవడంలో ఇంకా పరిమితం

యుగం 3: న్యూరల్ / డీప్ లెర్నింగ్ (2010లు–ప్రస్తుతం)

  • న్యూరల్ నెట్‌వర్క్‌లు భారీ వచన సమూహాల నుండి భాషా ప్రాతినిధ్యాలను నేర్చుకుంటాయి
  • Transformers (2017) ఈ రంగాన్ని విప్లవాత్మకం చేశాయి
  • BERT, GPT మరియు LLaMA వంటి మోడల్స్ ఆశ్చర్యకరంగా మానవుల వంటి వచనాన్ని అర్థం చేసుకోగలవు మరియు ఉత్పత్తి చేయగలవు
💡

2017లో Google పరిశోధకులు ప్రచురించిన "Attention Is All You Need" అనే పేపర్ Transformer ఆర్కిటెక్చర్‌ను పరిచయం చేసింది. ChatGPT నుండి Google Translate వరకు GitHub Copilot వరకు — ఆచరణాత్మకంగా ప్రతి ఆధునిక భాషా AI కి ఇది పునాది.


దశ 1: టోకనైజేషన్ — వచనాన్ని ముక్కలుగా విభజించడం ✂️

ఒక మెషీన్ వాక్యాన్ని అర్థం చేసుకునే ముందు, దానిని టోకన్లు అనే చిన్న భాగాలుగా విభజించాలి.

# Simple word-level tokenisation
sentence = "AI is transforming healthcare!"
tokens = sentence.lower().split()
print(tokens)
# Output: ['ai', 'is', 'transforming', 'healthcare!']

# Modern subword tokenisation (like GPT uses)
# "unhappiness" → ["un", "happiness"]
# "ChatGPT" → ["Chat", "G", "PT"]
# This handles words the model has never seen before!

ఆధునిక మోడల్స్ subword tokenisation ఉపయోగిస్తాయి — అవి పదాలను అర్థవంతమైన ముక్కలుగా విభజిస్తాయి. అందుకే ఒక మోడల్ తాను ఎప్పుడూ చూడని పదాలను కూడా నిర్వహించగలదు: అది ఉప-భాగాలను గుర్తిస్తుంది.

దీనిని Lego లాగా ఆలోచించండి: మీరు ఒక నిర్దిష్ట కోటను ఎప్పుడూ చూడకపోయినా, వ్యక్తిగత ఇటుకలను మీరు అర్థం చేసుకోగలరు.


దశ 2: ఎంబెడ్డింగ్‌లు — పదాలు సంఖ్యలుగా 🔢

మెషీన్లు పదాలను అర్థం చేసుకోవు — అవి సంఖ్యలను అర్థం చేసుకుంటాయి. ఎంబెడ్డింగ్‌లు ప్రతి టోకన్‌ను దాని అర్థాన్ని సంగ్రహించే సంఖ్యల జాబితా (వెక్టర్)గా మారుస్తాయి.

# Conceptual example: word embeddings
# Each word becomes a vector in high-dimensional space
embeddings = {
    "king":   [0.8, 0.2, -0.5, 0.9],
    "queen":  [0.7, 0.3, -0.5, 0.8],
    "man":    [0.9, 0.1, 0.4, 0.2],
    "woman":  [0.8, 0.2, 0.4, 0.1],
}

# The magic: king - man + woman ≈ queen
# Similar meanings → nearby vectors in this number space

ఎంబెడ్డింగ్‌ల అందమైన గుణం: సమానమైన అర్థాలు ఉన్న పదాలు ఈ సంఖ్యా ప్రదేశంలో దగ్గరగా ఉంటాయి. "Happy" మరియు "joyful" పొరుగువాళ్ళు అవుతారు; "happy" మరియు "earthquake" చాలా దూరంగా ఉంటాయి.

🤔
Think about it:

ఎంబెడ్డింగ్‌లు అర్థాన్ని సంఖ్యలుగా సంగ్రహిస్తే, ఒక పదానికి బహుళ అర్థాలు ఉన్నప్పుడు ఏమి జరుగుతుంది? "Bank" (నది ఒడ్డు vs. ఆర్థిక బ్యాంకు) సందర్భాన్ని బట్టి వేర్వేరు వెక్టర్లు అవసరం. తదుపరి దశ — attention — సరిగ్గా ఈ సమస్యను పరిష్కరిస్తుంది.


దశ 3: Attention — ఏది అత్యంత ముఖ్యమైనది 👀

Attention mechanism ఆధునిక NLP యొక్క రహస్య ఆయుధం. వాక్యంలో ఏ పదాలు ఒకదానికొకటి అత్యంత సంబంధితమో మోడల్ గుర్తించడానికి ఇది సహాయపడుతుంది.

ఈ వాక్యాన్ని చూడండి: "The cat sat on the mat because it was tired."

"it" దేనిని సూచిస్తుంది? పిల్లిని, చాపను, లేదా కూర్చునే చర్యను? మీకు తెలుసు అది పిల్లి — attention మోడల్‌కు కూడా ఇదే తెలుసుకోవడంలో సహాయపడుతుంది.

Attention ఎలా పనిచేస్తుంది (అంతర్బోధ)

మీరు ఒక సందడి పార్టీలో ఉన్నారని ఊహించుకోండి. మీరు ఇతరులను వడపోస్తూ ఒక సంభాషణ వైపు "శ్రద్ధ" పెట్టగలరు. AI లో Attention ఇలాగే పనిచేస్తుంది:

  1. ప్రతి పదానికి, ప్రతి ఇతర పదం ఎంత సంబంధితమో లెక్కించడం
  2. సంబంధిత పదాలకు ఎక్కువ "శ్రద్ధ" ఇవ్వడం, అసంబంధిత వాటికి తక్కువ ఇవ్వడం
  3. ప్రతి పదం యొక్క కొత్త ప్రాతినిధ్యాన్ని దాని సందర్భంతో సహా నిర్మించడం
# Simplified attention intuition
sentence = ["The", "cat", "sat", "because", "it", "was", "tired"]

# When processing "it", attention scores might look like:
attention_for_it = {
    "The":     0.02,   # barely relevant
    "cat":     0.65,   # highly relevant — "it" refers to "cat"
    "sat":     0.10,   # somewhat relevant
    "because": 0.03,   # barely relevant
    "it":      0.05,   # self-reference
    "was":     0.05,   # grammar link
    "tired":   0.10,   # connected to "it"
}
# The model "attends" most to "cat" — correctly linking the pronoun
🤯

GPT-4 సుమారు 120 attention పొరలను ఉపయోగిస్తుంది, ప్రతి ఒక్కటి వచనాన్ని వేరే కోణం నుండి చూస్తుంది — వ్యాకరణం, అర్థం, స్వరం, వాస్తవ సంబంధాలు. ఇది 120 మంది నిపుణులు ఒకే వచనాన్ని చదివి నోట్స్ పంచుకున్నట్లుంటుంది.


చాట్‌బాట్‌లు ఎలా పనిచేస్తాయి 🤖

ఒక చాట్‌బాట్ NLP భాగాలను సంభాషణ వ్యవస్థగా కలుపుతుంది. ప్రధాన ఆర్కిటెక్చర్ ఇదిగో:

ఉద్దేశ్య గుర్తింపు (Intent Recognition)

"What's the weather like?" → ఉద్దేశ్యం: get_weather

ఎంటిటీ వెలికితీత (Entity Extraction)

"What's the weather like in London tomorrow?" → ఎంటిటీలు: city=London, date=tomorrow

ప్రతిస్పందన ఉత్పత్తి (Response Generation)

సమాధానాన్ని వెతికి ప్రత్యుత్తరాన్ని రూపొందించడం.

# A simple rule-based chatbot skeleton
def simple_chatbot(user_message):
    """A basic chatbot using intent and entity extraction."""
    message = user_message.lower()

    # Intent recognition (simplified)
    if any(word in message for word in ["weather", "temperature", "rain"]):
        intent = "get_weather"
    elif any(word in message for word in ["hello", "hi", "hey"]):
        intent = "greeting"
    elif any(word in message for word in ["bye", "goodbye", "see you"]):
        intent = "farewell"
    else:
        intent = "unknown"

    # Entity extraction (simplified)
    cities = ["london", "paris", "tokyo", "hyderabad", "amsterdam"]
    detected_city = next((c for c in cities if c in message), None)

    # Response generation
    responses = {
        "greeting":    "Hello! How can I help you today? 😊",
        "farewell":    "Goodbye! Have a great day! 👋",
        "get_weather": f"Checking weather for {detected_city or 'your area'}... 🌤️",
        "unknown":     "I'm not sure I understand. Could you rephrase? 🤔",
    }

    return responses[intent]

# Try it out
print(simple_chatbot("Hi there!"))
print(simple_chatbot("What's the weather in Tokyo?"))
print(simple_chatbot("Tell me a joke"))

ELIZA నుండి ChatGPT వరకు — ఒక కాలక్రమం 📅

| సంవత్సరం | వ్యవస్థ | విధానం | సామర్థ్యం | |-----------|---------|--------|-----------| | 1966 | ELIZA | నమూనా సరిపోలిక | సాధారణ వచన ప్రతిక్షేపణతో ఒక థెరపిస్ట్‌ను అనుకరించింది | | 1995 | ALICE | నియమ-ఆధారిత (AIML) | ఎక్కువ నియమాలు, కానీ నిజమైన అవగాహన లేదు | | 2011 | Siri | సాంఖ్యక NLP | వెబ్ శోధనతో కూడిన వాయిస్-ఆధారిత సహాయకం | | 2016 | Alexa / Google Assistant | డీప్ లెర్నింగ్ NLP | సందర్భం మరియు ఫాలో-అప్ ప్రశ్నలలో మెరుగైనది | | 2018 | BERT (Google) | Transformer (ద్విదిశ) | రెండు దిశల్లో సందర్భాన్ని అర్థం చేసుకుంది | | 2022 | ChatGPT (OpenAI) | Transformer (జెనరేటివ్) | సహజమైన, సందర్భ-ఆధారిత బహుళ-టర్న్ సంభాషణను ఉత్పత్తి చేస్తుంది | | 2024 | GPT-4, Claude, Gemini | మల్టీమోడల్ transformers | వచనం, చిత్రాలు, కోడ్ మరియు తార్కిక ఆలోచనను నిర్వహిస్తాయి |

💡

ELIZA (1966) కొంతమంది వినియోగదారులను తాము నిజమైన థెరపిస్ట్‌తో మాట్లాడుతున్నామని నమ్మించింది — ఇది తెలివైనది కాబట్టి కాదు, మానవులు సహజంగా సంభాషణ భాగస్వాములపై అవగాహనను ఆపాదిస్తారు కాబట్టి. దీనిని ELIZA effect అంటారు, మరియు చాట్‌బాట్‌లు నిజంగా "అర్థం చేసుకుంటున్నాయి" అని మనం అంచనా వేసినప్పుడు ఈ ప్రభావం ఇప్పటికీ వర్తిస్తుంది.


పరిమితులు మరియు భ్రమలు (Hallucinations) ⚠️

ఆధునిక భాషా మోడల్స్ ఆకట్టుకునేవి, కానీ వాటికి నిజమైన పరిమితులు ఉన్నాయి:

భ్రమలు (Hallucinations)

మోడల్స్ కొన్నిసార్లు ఆత్మవిశ్వాసంతో కానీ పూర్తిగా తప్పుడు సమాచారాన్ని ఉత్పత్తి చేస్తాయి. అవి వాస్తవాలను "తెలుసుకోవు" — అవి అత్యంత సంభావ్యమైన తదుపరి పదాన్ని అంచనా వేస్తాయి.

నిజమైన అవగాహన లేదు

ఒక భాషా మోడల్ ప్రపంచాన్ని ఎప్పుడూ చూడలేదు, తాకలేదు లేదా అనుభవించలేదు. అది వచనం నుండి భాషా నమూనాలను మాత్రమే ఎరుగుతుంది. ఒక సూర్యాస్తమయాన్ని ఎప్పుడూ "చూడకుండానే" అందంగా వర్ణించగలదు.

సందర్భ విండో పరిమితులు

మోడల్స్ ఒకేసారి నిర్ణీత పరిమాణంలో వచనాన్ని మాత్రమే పరిగణించగలవు. చాలా పొడవైన సంభాషణలు ముందటి సందర్భాన్ని "మరచిపోయేలా" చేయవచ్చు.

పక్షపాత వృద్ధి (Bias Amplification)

శిక్షణ డేటాలో పక్షపాతాలు (మూస భావాలు, తప్పుడు సమాచారం) ఉంటే, మోడల్ వాటిని పునరుత్పత్తి చేస్తుంది, కొన్నిసార్లు మరింత పెంచుతుంది.

# Illustrating the hallucination concept
def language_model_intuition(prompt):
    """
    A language model doesn't retrieve facts — it predicts probable words.
    
    Prompt: "The capital of France is ___"
    The model has seen "Paris" follow this pattern thousands of times,
    so it predicts "Paris" — not because it 'knows' geography,
    but because it's the statistically likely next word.
    
    For rare or ambiguous prompts, it may confidently predict
    something entirely wrong — that's a hallucination.
    """
    pass  # Real models use billions of parameters for this prediction
🤔
Think about it:

ఒక చాట్‌బాట్ "I think" లేదా "I believe" అని చెప్పినప్పుడు, అది నిజంగా ఆలోచిస్తుందా లేదా నమ్ముతుందా? అది తదుపరి పదాన్ని అంచనా వేస్తుందని తెలిస్తే దాని ప్రతిస్పందనలను మీరు ఎలా అర్థం చేసుకుంటారు? చాట్‌బాట్‌లు తాము AI అని బహిర్గతం చేయాలని నిబంధన ఉండాలా?


శీఘ్ర సారాంశం 🎯

  1. NLP అనేది మెషీన్లు మానవ భాషను అర్థం చేసుకోవడంలో సహాయపడే AI శాఖ
  2. NLP కఠినమైన నియమాల నుండి సాంఖ్యక మోడల్స్ నుండి న్యూరల్ transformers వరకు పరిణామం చెందింది
  3. టోకనైజేషన్ వచనాన్ని ముక్కలుగా విభజిస్తుంది; ఎంబెడ్డింగ్‌లు వాటిని సంఖ్యలుగా మారుస్తాయి; attention సందర్భాన్ని సంగ్రహిస్తుంది
  4. చాట్‌బాట్‌లు అర్థం చేసుకోవడానికి మరియు ప్రతిస్పందించడానికి ఉద్దేశ్య గుర్తింపు మరియు ఎంటిటీ వెలికితీత ఉపయోగిస్తాయి
  5. ELIZA (1966) నుండి ChatGPT (2022) వరకు ప్రయాణం దాదాపు 60 సంవత్సరాల పురోగతిని కలిగి ఉంది
  6. భ్రమలు మరియు పక్షపాతం నిజమైన పరిమితులు — AI ఉత్పత్తి చేసిన సమాచారాన్ని ఎల్లప్పుడూ ధృవీకరించండి

తదుపరి ఏమిటి? 🚀

మెషీన్లు భాషను ఎలా ప్రాసెస్ చేస్తాయో ఇప్పుడు మీకు అర్థమైంది. తదుపరి పాఠంలో, మనం కంప్యూటర్ విజన్ గురించి తెలుసుకుందాం — మెషీన్లకు చూడడం నేర్పించడం. AI ముఖాలను ఎలా గుర్తిస్తుంది, కార్లను ఎలా నడుపుతుంది మరియు మీ ఫోన్‌లో AR ఫిల్టర్లను ఎలా శక్తివంతం చేస్తుంది అనేది మీరు నేర్చుకుంటారు!

Lesson 2 of 30 of 3 completed
←ఆరోగ్య రంగంలో AI — డేటాతో ప్రాణాలు కాపాడటంకంప్యూటర్ విజన్ బేసిక్స్ — యంత్రాలకు చూడడం నేర్పించడం→