आपने सीखा LLM कैसे काम करते हैं। अब सबसे महत्वपूर्ण कौशल: प्रॉम्प्ट इंजीनियरिंग — ऐसे निर्देश तैयार करना जो सही परिणाम दें।
❌ खराब: "जलवायु के बारे में बताओ"
→ अस्पष्ट 2,000 शब्दों का निबंध
✅ अच्छा: "जलवायु परिवर्तन के तीन मुख्य कारण बताओ
बुलेट पॉइंट्स में, 14 साल के बच्चे के लिए।
100 शब्दों से कम।"
→ केंद्रित, उपयोगी उत्तर
LLM एक ब्रिलियंट विशेषज्ञ की तरह है जो निर्देश बहुत शब्दशः लेता है। जितने विशिष्ट आप होंगे, उतना बेहतर परिणाम।
मॉडल को बिना उदाहरण के कार्य दें। सरल कार्यों के लिए अच्छा काम करता है।
अपने अनुरोध से पहले कुछ उदाहरण दें:
"इन समीक्षाओं को वर्गीकृत करें:
समीक्षा: 'बिल्कुल पसंद आया!' → सकारात्मक
समीक्षा: 'दो दिन में टूट गया।' → नकारात्मक
समीक्षा: 'ठीक है, काम चलता है।' → तटस्थ
समीक्षा: 'डिज़ाइन शानदार है लेकिन सॉफ्टवेयर क्रैश होता है।'
भावना: "
उत्तर: "नकारात्मक"
मॉडल से कदम दर कदम सोचने को कहें:
"एक ट्रेन 2 घंटे में 120 km चलती है, फिर 50% तेज हो जाती है।
अगले 3 घंटों में कितनी दूर जाएगी?
कदम दर कदम सोचते हैं।"
→ चरण 1: गति = 60 km/h
→ चरण 2: 50% वृद्धि = 90 km/h
→ चरण 3: दूरी = 90 × 3 = 270 km ✓
सिस्टम प्रॉम्प्ट मॉडल का व्यवहार और सीमाएँ तय करता है:
messages = [
{
"role": "system",
"content": """आप एक सीनियर Python कोड रिव्यूअर हैं।
नियम:
- केवल बग, सुरक्षा और प्रदर्शन पर टिप्पणी करें
- स्टाइल और फॉर्मेटिंग अनदेखा करें
- गंभीरता रेट करें: निम्न / मध्यम / उच्च / गंभीर"""
},
{
"role": "user",
"content": "इस कोड की समीक्षा करें:\n\ndef login(user, pwd):\n query = f'SELECT * FROM users WHERE name=\"{user}\"'\n return db.execute(query)"
}
]
प्रभावी संरचना: भूमिका → कार्य → बाधाएँ → प्रारूप → उदाहरण
सिस्टम प्रॉम्प्ट सुसंगत AI व्यवहार के लिए आपका सबसे शक्तिशाली उपकरण है। एक अच्छा सिस्टम प्रॉम्प्ट एक सामान्य मॉडल को विशेषज्ञ में बदल सकता है।
RAG मॉडल को आपके डेटा तक पहुँच देता है: इंडेक्स → रिट्रीव → ऑग्मेंट → जनरेट।
def answer_with_rag(question, document_store):
relevant_chunks = document_store.search(question, top_k=3)
context = "\n\n".join(chunk.text for chunk in relevant_chunks)
prompt = f"""केवल दिए गए संदर्भ के आधार पर उत्तर दें।
संदर्भ:
{context}
प्रश्न: {question}
उत्तर:"""
return llm.generate(prompt)
RAG ओपन-बुक परीक्षा जैसा है। छात्र (LLM) अभी भी तर्क करता है, लेकिन तथ्य देख सकता है — जिससे उत्तर अधिक विश्वसनीय होते हैं।
response = client.chat.completions.create(
model="gpt-4o",
response_format={"type": "json_object"},
messages=[
{"role": "system", "content": "उत्पाद जानकारी JSON में निकालें: नाम, मूल्य, श्रेणी"},
{"role": "user", "content": "Sony WH-1000XM5 हेडफोन ₹28,990 में इलेक्ट्रॉनिक्स में उपलब्ध है।"}
]
)
उन्नत: सेल्फ-कंसिस्टेंसी (कई उत्तरों के बीच मतदान) और ट्री ऑफ थॉट (कई तर्क शाखाएँ एक्सप्लोर करना) सटीकता और बढ़ाते हैं।
PROMPT_LIBRARY = {
"सारांश": """निम्नलिखित पाठ को {length} बिंदुओं में सारांशित करें।
पाठ: {text}""",
"समझाएँ": """{concept} को {audience} को समझाएँ।
रोज़मर्रा की उपमाओं का उपयोग करें।
{word_limit} शब्दों से कम।""",
"निकालें": """पाठ से ये फ़ील्ड JSON में निकालें:
फ़ील्ड: {fields}
पाठ: {text}""",
}
def build_prompt(template_name, **kwargs):
return PROMPT_LIBRARY[template_name].format(**kwargs)
prompt = build_prompt(
"समझाएँ",
concept="क्वांटम कंप्यूटिंग",
audience="जिज्ञासु 15 साल के किशोर",
word_limit=150
)
प्रॉम्प्ट लाइब्रेरी एक जीवित दस्तावेज़ है — परिणामों के आधार पर अपने टेम्पलेट सुधारें। उन्हें कोड की तरह वर्शन-कंट्रोल करें।
अब आपने तीन स्तंभ सीख लिए: डीप आर्किटेक्चर, लैंग्वेज मॉडल और प्रॉम्प्ट इंजीनियरिंग। आगे: AI सिस्टम डिज़ाइन। 🏕️