UPSSSC लेखपाल 2026: कृत्रिम बुद्धिमत्ता (AI, ML, & DL) | Top 50 MCQ

An inspiring illustration of an Indian student preparing for the UPSSSC Lekhpal exam surrounded by glowing cyan holographic representations of AI, Machine Learning, and Deep Learning data, with a UPSSSC 2026 badge in the background. High-tech, determined, and professional style.

UPSSSC लेखपाल (21 मई 2026) परीक्षा करीब आ रही है और एडवांस कंप्यूटर टॉपिक्स को लेकर छात्रों के मन में काफी डर और असमंजस है। Artificial Intelligence (AI), Machine Learning (ML), और Deep Learning (DL) जैसे विषय बहुत तकनीकी और विशाल हैं। बाज़ार में मौजूद भारी-भरकम किताबों से पढ़कर केवल समय बर्बाद होता है और कॉन्फिडेंस भी गिरता है। आपकी इसी समस्या को जड़ से खत्म करने के लिए, हमने UPSSSC PYQs और सटीक सिलेबस के आधार पर यह विशेष Top 50 Most Expected Bilingual Computer Questions का सेट तैयार किया है। यहाँ आपको कोई फालतू थ्योरी नहीं, बल्कि सिर्फ 'क्रीम' और परीक्षा में सीधे छपने वाले प्रश्न और 25 बोनस वन-लाइनर फैक्ट्स मिलेंगे। तो चलिए, बिना समय गँवाए अपनी सफलता पक्की करते हैं!


UPSSSC Lekhpal: MCQs based on Artificial Intelligence

यहाँ आगामी UPSSSC लेखपाल 2026 और अन्य UPSSSC Latest Exams को ध्यान में रखते हुए Artificial Intelligence based Computer Questions तैयार किए गए हैं। इस सेक्शन में Artificial Intelligence, Machine Learning, और Deep Learning जैसे UPSSSC Advance Computer Topics से जुड़े Bilingual Computer Questions शामिल किए गए हैं, जो आपको परीक्षा में बढ़त दिलाएंगे। ये UPSSSC Computer Questions विशेष रूप से UPSSSC Exams 2026 के नवीनतम पैटर्न पर आधारित हैं।


प्रश्न 01: 1956 में डार्टमाउथ सम्मेलन (Dartmouth Conference) का आयोजन किसने किया था, जिसे कृत्रिम बुद्धिमत्ता (Artificial Intelligence) का आरंभिक बिंदु माना जाता है और जहाँ पहली बार इस शब्द की उत्पत्ति हुई थी? (Who organized the Dartmouth Conference in 1956, which is considered the starting point of Artificial Intelligence and where this term was coined for the first time?)

  • (A) एलन ट्यूरिंग (Alan Turing)
  • (B) जॉन मैकार्थी (John McCarthy)
  • (C) ज्योफ्री हिंटन (Geoffrey Hinton)
  • (D) मार्विन मिन्स्की (Marvin Minsky)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (B) जॉन मैकार्थी (John McCarthy)

व्याख्या (Explanation): कृत्रिम बुद्धिमत्ता (AI) के जनक जॉन मैकार्थी (John McCarthy) को कहा जाता है । उन्होंने 1956 में डार्टमाउथ सम्मेलन (Dartmouth Conference) का आयोजन किया था, जिसे AI अनुसंधान के क्षेत्र का आरंभिक बिंदु माना जाता है । इसी सम्मेलन में उन्होंने आधिकारिक तौर पर "कृत्रिम बुद्धिमत्ता (Artificial Intelligence)" शब्द प्रस्तुत किया था । इसके अलावा, जॉन मैकार्थी ने 1958 में LISP (LISt Processing) प्रोग्रामिंग भाषा का भी विकास किया, जो AI अनुसंधान में व्यापक रूप से इस्तेमाल होती है । विकल्प (A) एलन ट्यूरिंग पहले व्यक्ति थे जिन्होंने "मशीन इंटेलिजेंस" पर शोध किया और 1950 में ट्यूरिंग टेस्ट (Turing Test) का प्रस्ताव रखा , जबकि ज्योफ्री हिंटन (Geoffrey Hinton) को AI और डीप लर्निंग का गॉडफादर (Godfather of AI & Deep Learning) कहा जाता है ।


प्रश्न 02: नीचे दो कथन दिए गए हैं, एक को अभिकथन (Assertion - A) और दूसरे को कारण (Reason - R) के रूप में लेबल किया गया है। सही विकल्प का चयन करें। (Below are two statements, one labeled as Assertion (A) and the other as Reason (R). Select the correct option.)

अभिकथन (A): 'रिएक्टिव मशीन एआई' (Reactive Machine AI) भविष्य में निर्णय लेने के लिए पिछली बातचीत से कुछ जानकारी बनाए रख सकता है। (Assertion (A): 'Reactive Machine AI' can retain some information from past interactions to make decisions in the future.)

कारण (R): 'लिमिटेड मेमोरी एआई' (Limited memory AI) समय के साथ अपने प्रदर्शन को बेहतर बनाने के लिए संग्रहीत डेटा का उपयोग करता है, जैसे कि स्वायत्त वाहन (Autonomous vehicles)। (Reason (R): 'Limited memory AI' uses stored data to improve its performance over time, such as Autonomous vehicles.)

  • (A) A और R दोनों सत्य हैं, और R, A की सही व्याख्या है। (Both A and R are true, and R is the correct explanation of A.)
  • (B) A और R दोनों सत्य हैं, लेकिन R, A की सही व्याख्या नहीं है। (Both A and R are true, but R is not the correct explanation of A.)
  • (C) A सत्य है, लेकिन R असत्य है। (A is true, but R is false.)
  • (D) A असत्य है, लेकिन R सत्य है। (A is false, but R is true.)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (D) A असत्य है, लेकिन R सत्य है। (A is false, but R is true.)

व्याख्या (Explanation): अभिकथन (A) असत्य है क्योंकि रिएक्टिव मशीन (Reactive Machine AI) AI का सबसे सरल रूप है; ये पिछले अनुभवों को याद नहीं रख सकते और भविष्य की किसी भी जानकारी का उपयोग नहीं कर सकते । ये केवल वर्तमान परिदृश्य (Current Scenario) का विश्लेषण करते हैं (उदाहरण: Chess, Ludo) । वहीं, कारण (R) पूरी तरह से सत्य है। 'लिमिटेड मेमोरी एआई' (Limited memory AI) भविष्य के निर्णयों के लिए पिछली जानकारी को बनाए रख सकता है । स्वायत्त वाहन (Autonomous vehicles) अक्सर ट्रैफ़िक को नेविगेट करने के लिए इसी प्रकार के AI का उपयोग करते हैं।


प्रश्न 03: कृत्रिम बुद्धिमत्ता (AI) की शाखाओं को उनके संबंधित उदाहरणों के साथ सुमेलित करें: (Match the branches of Artificial Intelligence (AI) with their respective examples:)

सूची I (List I) सूची II (List II)
1. प्राकृतिक भाषा प्रसंस्करण (NLP) A. चींटी कॉलोनी अनुकूलन (Ant colony optimization)
2. कंप्यूटर विज़न (Computer Vision) B. चिकित्सा निदान (Medical diagnosis)
3. विशेषज्ञ प्रणाली (Expert Systems) C. चेहरे की पहचान (Facial recognition)
4. झुंड बुद्धि (Swarm Intelligence) D. भाषा अनुवाद (Language translation)

  • (A) 1-D, 2-C, 3-B, 4-A
  • (B) 1-C, 2-D, 3-A, 4-B
  • (C) 1-D, 2-B, 3-C, 4-A
  • (D) 1-A, 2-C, 3-B, 4-D
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (A) 1-D, 2-C, 3-B, 4-A

व्याख्या (Explanation): सही मिलान इस प्रकार है:

  • प्राकृतिक भाषा प्रसंस्करण (Natural Language Processing - NLP): यह कंप्यूटरों को मानव भाषा को समझने और अनुवाद करने की क्षमता देता है (उदाहरण: वर्चुअल असिस्टेंट, भाषा अनुवाद/Language translation) ।
  • कंप्यूटर विज़न (Computer Vision): यह डिजिटल इमेज या वीडियो से जानकारी निकालने की क्षमता है (उदाहरण: चेहरे की पहचान/Facial recognition, ऑब्जेक्ट डिटेक्शन) ।
  • विशेषज्ञ प्रणाली (Expert Systems): यह किसी विशेष डोमेन में मानव विशेषज्ञ के निर्णय लेने की क्षमता का अनुकरण करता है (उदाहरण: चिकित्सा निदान/Medical diagnosis, वित्तीय योजना) ।
  • झुंड बुद्धि (Swarm Intelligence): यह सामाजिक कीड़ों या जानवरों के सामूहिक व्यवहार पर आधारित है (उदाहरण: चींटी कॉलोनी अनुकूलन/Ant colony optimization) ।

प्रश्न 04: निम्नलिखित में से किसे पहला AI चैटबॉट (First AI Chatbot) माना जाता है, जिसे 1964-66 के बीच MIT में जोसेफ वेइज़ेनबाम (Joseph Weizenbaum) द्वारा विकसित किया गया था और जो पैटर्न मिलान (pattern matching) का उपयोग करके वार्तालाप का अनुकरण करता था? (Which of the following is considered the first AI chatbot, developed by Joseph Weizenbaum at MIT between 1964-66, which simulated conversation using pattern matching?)

  • (A) डीप ब्लू (Deep Blue)
  • (B) वॉटसन (Watson)
  • (C) शैक (SHRDLU)
  • (D) एलिज़ा (ELIZA)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (D) एलिज़ा (ELIZA)

व्याख्या (Explanation): एलिज़ा (ELIZA) को पहला AI चैटबॉट (First chatbot) माना जाता है । इसे 1964-1966 के दौरान MIT में जोसेफ वेइज़ेनबाम (Joseph Weizenbaum) द्वारा विकसित किया गया था । यह नेचुरल लैंग्वेज प्रोसेसिंग (Natural language processing) में एक अग्रणी कदम था जो पैटर्न मिलान (pattern matching) का उपयोग करके मनुष्यों के साथ वार्तालाप का अनुकरण (simulate) करता था । विकल्पों में मौजूद 'शैक' (SHRDLU) टेरी विनोग्रैड द्वारा 1970 में बनाया गया था जो संदर्भ में भाषा को समझता था । 'डीप ब्लू' IBM का सुपरकंप्यूटर था जिसने शतरंज चैंपियन गैरी कास्पारोव को हराया था, और 'वॉटसन' IBM का QA AI है जिसने 2011 में 'Jeopardy!' शो जीता था ।


प्रश्न 05: कृत्रिम बुद्धिमत्ता (AI) अनुप्रयोगों के विकास के संदर्भ में, निम्नलिखित में से कौन सी प्रोग्रामिंग भाषा मुख्य रूप से AI से जुड़ी नहीं है, बल्कि आमतौर पर सिस्टम प्रशासन (system administration) और वेब विकास (web development) के लिए उपयोग की जाती है? (In the context of Artificial Intelligence (AI) application development, which of the following programming languages is NOT primarily associated with AI, but is commonly used for system administration and web development?)

  • (A) पायथन (Python)
  • (B) पर्ल (Perl)
  • (C) प्रोलॉग (Prolog)
  • (D) लिस्प (LISP)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (B) पर्ल (Perl)

व्याख्या (Explanation): पर्ल (Perl) एक शक्तिशाली भाषा है, लेकिन यह आम तौर पर मुख्य AI एप्लिकेशन विकास (core AI application development) से जुड़ी नहीं है । पर्ल का उपयोग आमतौर पर सिस्टम प्रशासन (system administration), वेब विकास (web development), और टेक्स्ट प्रोसेसिंग जैसे कार्यों के लिए किया जाता है । अन्य भाषाओं की बात करें तो:

  • Python: अपनी सरलता और TensorFlow/PyTorch जैसी लाइब्रेरी के कारण AI में सबसे अधिक पसंद की जाती है ।
  • LISP: 1958 में जॉन मैकार्थी द्वारा विकसित यह भाषा प्रतीकात्मक AI (Symbolic AI) और विशेषज्ञ प्रणालियों के लिए ऐतिहासिक महत्व रखती है ।
  • Prolog: लॉजिक प्रोग्रामिंग के लिए प्रोलॉग का उपयोग विशेषज्ञ प्रणाली और प्राकृतिक भाषा प्रसंस्करण (NLP) में किया जाता है ।

प्रश्न 06: कृत्रिम बुद्धिमत्ता (AI) के विकास में महत्वपूर्ण मील के पत्थरों को उनके प्रस्तुत किए जाने के वर्ष के अनुसार कालानुक्रमिक क्रम (Chronological order) में व्यवस्थित करें: (Arrange the important milestones in the development of Artificial Intelligence (AI) in chronological order according to the year of their introduction:)

  1. डीप ब्लू (Deep Blue)
  2. चैटजीपीटी (ChatGPT)
  3. वॉटसन (Watson)
  4. अल्फागो (AlphaGo)
  • (A) 1, 3, 4, 2
  • (B) 1, 4, 3, 2
  • (C) 3, 1, 4, 2
  • (D) 1, 3, 2, 4
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (A) 1, 3, 4, 2

व्याख्या (Explanation): AI के विकास का सही कालानुक्रमिक क्रम (Chronological order) इस प्रकार है:

  1. डीप ब्लू (Deep Blue): इसे IBM द्वारा विकसित किया गया और 1997 में इसने विश्व शतरंज चैंपियन गैरी कास्पारोव को हराया ।
  2. वॉटसन (Watson): IBM द्वारा विकसित इस AI ने 2011 में 'Jeopardy!' गेम शो में जीत हासिल की ।
  3. अल्फागो (AlphaGo): Google DeepMind द्वारा विकसित इस AI ने 2016 में 'Go' खेल के विश्व चैंपियन ली सेडोल (Lee Sedol) को हराया था ।
  4. चैटजीपीटी (ChatGPT): OpenAI द्वारा इसे 2022 में कन्वर्सेशनल AI (Conversational AI) और LLM पर आधारित चैटबॉट के रूप में पेश किया गया । अतः सही क्रम 1 -> 3 -> 4 -> 2 होगा।

प्रश्न 07: वर्चुअल असिस्टेंट (Virtual Assistants) के संबंध में निम्नलिखित कथनों पर विचार करें और गलत कथन की पहचान करें: (Consider the following statements regarding Virtual Assistants and identify the incorrect statement:)

  • (A) सिरी (Siri) को 2010-2011 में Apple Inc. द्वारा अपने iOS सिस्टम के लिए विकसित किया गया था। (Siri was developed by Apple Inc. around 2010-2011 for its iOS systems.)
  • (B) एलेक्सा (Alexa) को Amazon द्वारा अपने Echo स्मार्ट स्पीकर के लिए विकसित किया गया था। (Alexa was developed by Amazon for its Echo Smart Speaker.)
  • (C) कॉर्टाना (Cortana) का विकास Google द्वारा अपने Android उपकरणों के लिए किया गया था। (Cortana was developed by Google for its Android devices.)
  • (D) बिक्सबी (Bixby) एक सक्रिय वर्चुअल असिस्टेंट है जिसे Samsung उपकरणों में एकीकृत किया गया है। (Bixby is an active virtual assistant integrated into Samsung devices.)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (C) कॉर्टाना (Cortana) का विकास Google द्वारा अपने Android उपकरणों के लिए किया गया था। (Cortana was developed by Google for its Android devices.)

व्याख्या (Explanation): कथन (C) गलत है क्योंकि कॉर्टाना (Cortana) का विकास Google ने नहीं, बल्कि 2014 में Microsoft Corporation ने किया था । Google के वर्चुअल असिस्टेंट का नाम 'Google Assistant' है जिसे 2016 में पेश किया गया था । अन्य सभी कथन सत्य हैं: सिरी (Siri) Apple का है (2011) , एलेक्सा (Alexa) Amazon का है (2014) , और बिक्सबी (Bixby) 2017 में Samsung द्वारा पेश किया गया एक सक्रिय वर्चुअल असिस्टेंट है ।


प्रश्न 08: निम्नलिखित में से कौन सी तकनीक उन डेटा सेटों (data sets) से सार्थक अंतर्दृष्टि (meaningful insights) निकालने के लिए उपयोग की जाती है जो पारंपरिक डेटा प्रोसेसिंग टूल (traditional data processing tools) द्वारा संसाधित (processed) करने के लिए बहुत बड़े या जटिल हैं? (Which of the following techniques is used to extract meaningful insights from data sets that are too large or complex to be processed by traditional data processing tools?) [PYQ]

  • (A) बिजनेस इंटेलिजेंस (Business Intelligence)
  • (B) मशीन लर्निंग (Machine Learning)
  • (C) आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence)
  • (D) डेटा साइंस (Data Science)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (D) डेटा साइंस (Data Science)

व्याख्या (Explanation): डेटा साइंस (Data Science) एक बहु-विषयक क्षेत्र (multi-disciplinary field) है जो बड़े और जटिल डेटा सेटों (जिन्हें बिग डेटा कहा जाता है) से ज्ञान और सार्थक अंतर्दृष्टि (meaningful insights) निकालने के लिए सांख्यिकी, कंप्यूटर विज्ञान, और डोमेन विशेषज्ञता का उपयोग करता है । यह तकनीक उन डेटा सेटों के लिए आवश्यक है जो पारंपरिक डेटा प्रोसेसिंग टूल्स द्वारा प्रोसेस करने के लिए बहुत विशाल हैं । मशीन लर्निंग (Machine Learning) और आर्टिफिशियल इंटेलिजेंस (Artificial Intelligence) स्वयं डेटा साइंस के अंतर्गत उपयोग की जाने वाली तकनीकें या सबसेट (subset) हैं ।


प्रश्न 09: आपके स्मार्टफोन में मौजूद 'फेस रिकग्निशन सिस्टम' (Face recognition system) निम्नलिखित में से किस प्रकार के AI का एक व्यावहारिक उदाहरण है? (The 'Face recognition system' present in your smartphone is a practical example of which of the following types of AI?)

  • (A) एप्लाइड एआई (Applied AI / Weak AI)
  • (B) जनरल एआई (General AI / Strong AI)
  • (C) सुपर एआई (Super AI)
  • (D) थ्योरी ऑफ माइंड एआई (Theory of Mind AI)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (A) एप्लाइड एआई (Applied AI / Weak AI)

व्याख्या (Explanation): स्मार्टफोन का 'चेहरा पहचान प्रणाली' (Face recognition system) एप्लाइड एआई (Applied AI) पर आधारित है । इसे 'वीक एआई' (Weak AI) या 'नैरो एआई' (Narrow AI) भी कहा जाता है क्योंकि इसे केवल एक विशेष कार्य (इस स्थिति में, चेहरे की पहचान करना) को हल करने के लिए डिज़ाइन किया गया है । इसकी क्षमताएँ सीमित होती हैं और यह वास्तविक मानव बुद्धिमत्ता (General Intelligence) नहीं दिखाता । दूसरी ओर, स्ट्रांग एआई (Strong AI) मानव जैसी बुद्धिमत्ता को समझने और सभी स्तरों पर कार्य करने की क्षमता रखता है । थ्योरी ऑफ माइंड एआई (Theory of Mind AI) मानव भावनाओं और विश्वासों को समझने का लक्ष्य रखता है, जो अभी पूरी तरह विकसित नहीं हुआ है ।


प्रश्न 10: रोबोटिक्स और कृत्रिम बुद्धिमत्ता की शब्दावली में, कंप्यूटर द्वारा नियंत्रित रोबोट की "भुजा" (Arm) को आधिकारिक तौर पर क्या कहा जाता है? (In the terminology of robotics and artificial intelligence, what is the "arm" of a computer-controlled robot officially called?)

  • (A) सेंसर (Sensor)
  • (B) एक्चुएटर (Actuator)
  • (C) मैनिपुलेटर (Manipulator)
  • (D) वेटवेयर (Wetware)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (B) एक्चुएटर (Actuator)

व्याख्या (Explanation): रोबोटिक्स की तकनीकी शब्दावली में रोबोट की भुजा (arm of the robot) को 'एक्चुएटर' (Actuator) कहा जाता है । एक्चुएटर रोबोट का वह हिस्सा होता है जो ऊर्जा को गति (motion) में परिवर्तित करता है, जिससे रोबोट अपने पर्यावरण में भौतिक रूप से कार्य करने में सक्षम होता है। विकल्पों में दिया गया शब्द "वेटवेयर (Wetware)" मुख्य रूप से मानव मस्तिष्क (human brain) को संदर्भित करता है, विशेष रूप से जब हम कंप्यूटर (हार्डवेयर/सॉफ्टवेयर) और बायोलॉजिकल मानव दिमाग के बीच तुलना करते हैं।


प्रश्न 11: निम्नलिखित लोकप्रिय वर्चुअल असिस्टेंट (Virtual Assistants) को उनकी संबंधित कंपनियों और पेश किए गए वर्ष के साथ सुमेलित करें: (Match the following popular Virtual Assistants with their respective companies and the year they were introduced:)

सूची I (Virtual Assistant) सूची II (Company & Year)
1. सिरी (Siri) A. सैमसंग, 2017 (Samsung, 2017)
2. एलेक्सा (Alexa) B. एप्पल, 2011 (Apple, 2011)
3. कॉर्टाना (Cortana) C. अमेज़ॅन, 2014 (Amazon, 2014)
4. बिक्सबी (Bixby) D. माइक्रोसॉफ्ट, 2014 (Microsoft, 2014)

  • (A) 1-B, 2-C, 3-D, 4-A
  • (B) 1-C, 2-B, 3-A, 4-D
  • (C) 1-B, 2-D, 3-C, 4-A
  • (D) 1-A, 2-C, 3-D, 4-B
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (A) 1-B, 2-C, 3-D, 4-A

व्याख्या (Explanation): पीडीएफ नोट्स के अनुसार, विभिन्न वर्चुअल असिस्टेंट और उनकी कंपनियों का सही मिलान इस प्रकार है:

  • Siri (सिरी): इसे Apple द्वारा 2011 में पेश किया गया था और यह iOS, macOS, watchOS आदि उपकरणों में एकीकृत है।
  • Alexa (एलेक्सा): इसे Amazon द्वारा 2014 में अपने Echo स्मार्ट डिवाइस और स्मार्ट होम उत्पादों के लिए पेश किया गया था।
  • Cortana (कॉर्टाना): इसे Microsoft द्वारा 2014 में पेश किया गया था, हालाँकि अब उपभोक्ताओं के लिए इसे काफी हद तक बंद कर दिया गया है और एंटरप्राइज़ फीचर्स (जैसे Copilot) पर ध्यान केंद्रित किया गया है।
  • Bixby (बिक्सबी): इसे Samsung द्वारा 2017 में अपने गैलेक्सी फोन, स्मार्ट टीवी और अन्य उपकरणों के लिए पेश किया गया था।

प्रश्न 12: कृत्रिम बुद्धिमत्ता (AI) के इतिहास और प्रमुख हस्तियों के संदर्भ में निम्नलिखित कथनों पर विचार करें और असत्य कथन की पहचान करें: (Consider the following statements regarding the history and key figures of Artificial Intelligence (AI) and identify the incorrect statement:)

  • (A) जॉन मैकार्थी (John McCarthy) ने "आर्टिफिशियल इंटेलिजेंस" (Artificial Intelligence) शब्द गढ़ा था। (John McCarthy coined the term "Artificial Intelligence".)
  • (B) ज्योफ्री हिंटन (Geoffrey Hinton) को AI और डीप लर्निंग का गॉडफादर कहा जाता है। (Geoffrey Hinton is called the Godfather of AI & Deep Learning.)
  • (C) AI प्रोग्राम का पहला प्रदर्शन 1955 में मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी (MIT) में हुआ था। (The first demonstration of an AI program took place at the Massachusetts Institute of Technology (MIT) in 1955.)
  • (D) पहला रोबोट (Unimate) 1960 में जनरल मोटर्स (General Motors) की असेंबली लाइन द्वारा पेश किया गया था। (The first robot (Unimate) was introduced in 1960 by the General Motors assembly line.)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (C) AI प्रोग्राम का पहला प्रदर्शन 1955 में मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी (MIT) में हुआ था। (The first demonstration of an AI program took place at the Massachusetts Institute of Technology (MIT) in 1955.)

व्याख्या (Explanation): कथन (C) असत्य है। पीडीएफ नोट्स के "Important Points" सेक्शन के अनुसार, AI प्रोग्राम का पहला प्रदर्शन (first demonstration of an AI program) 1955 में 'कार्नेगी मेलन यूनिवर्सिटी' (Carnegie Mellon University) में हुआ था, न कि MIT में। अन्य सभी कथन पूर्णतः सत्य हैं: जॉन मैकार्थी को AI का जनक माना जाता है और उन्होंने ही यह शब्द गढ़ा था। ज्योफ्री हिंटन को AI और डीप लर्निंग का गॉडफादर माना जाता है, और पहला रोबोट Unimate 1960 में जनरल मोटर्स द्वारा असेंबली लाइन में पेश किया गया था।


प्रश्न 13: FIND-S एल्गोरिथ्म निम्नलिखित में से किसे अनदेखा करता है? (FIND-S algorithm ignores which of the following?) [PYQ]

  • (A) नकारात्मक (Negative)
  • (B) सकारात्मक (Positive)
  • (C) सकारात्मक या नकारात्मक के साथ (With positive or negative)
  • (D) न तो सकारात्मक और न ही नकारात्मक (Neither positive nor negative)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (A) नकारात्मक (Negative)

व्याख्या (Explanation): FIND-S मशीन लर्निंग (Machine Learning) में एक बुनियादी और प्रारंभिक कांसेप्ट लर्निंग एल्गोरिथम (concept learning algorithm) है। इसका मुख्य उद्देश्य दिए गए प्रशिक्षण उदाहरणों (training examples) के सेट में से सबसे विशिष्ट परिकल्पना (most specific hypothesis) को खोजना है जो सभी सकारात्मक उदाहरणों (positive examples) के साथ सुसंगत हो। FIND-S एल्गोरिथम की डिज़ाइन ऐसी है कि यह केवल सकारात्मक उदाहरणों का उपयोग करके ही परिकल्पना को अपडेट या सामान्यीकृत करता है। यह नकारात्मक उदाहरणों (negative examples) पर ध्यान नहीं देता है (उन्हें अनदेखा करता है)। यदि कोई नकारात्मक उदाहरण आता है, तो एल्गोरिथम अपनी वर्तमान परिकल्पना में कोई बदलाव नहीं करता है।


प्रश्न 14: नीचे दो कथन दिए गए हैं, एक को अभिकथन (Assertion - A) और दूसरे को कारण (Reason - R) के रूप में लेबल किया गया है। सही विकल्प का चयन करें। (Below are two statements, one labeled as Assertion (A) and the other as Reason (R). Select the correct option.)

अभिकथन (A): कंप्यूटर के सन्दर्भ में "वेटवेयर" (Wetware) शब्द का प्रयोग मुख्य रूप से मानव मस्तिष्क (human brain) को संदर्भित करने के लिए किया जाता है। (Assertion (A): In the context of computers, the term "Wetware" is primarily used to refer to the human brain.)

कारण (R): यह शब्द कंप्यूटर और मानव दिमाग के बीच की तुलना को दर्शाता है, जहाँ मानव दिमाग को एक बायोलॉजिकल कंप्यूटर के रूप में देखा जाता है जो न्यूरॉनल नेटवर्क्स (Neural Networks) की तरह कार्य करता है। (Reason (R): This term reflects the comparison between computers and the human brain, where the human brain is seen as a biological computer functioning like Neural Networks.)

  • (A) A और R दोनों सत्य हैं, और R, A की सही व्याख्या है। (Both A and R are true, and R is the correct explanation of A.)
  • (B) A और R दोनों सत्य हैं, लेकिन R, A की सही व्याख्या नहीं है। (Both A and R are true, but R is not the correct explanation of A.)
  • (C) A सत्य है, लेकिन R असत्य है। (A is true, but R is false.)
  • (D) A असत्य है, लेकिन R सत्य है। (A is false, but R is true.)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (A) A और R दोनों सत्य हैं, और R, A की सही व्याख्या है। (Both A and R are true, and R is the correct explanation of A.)

व्याख्या (Explanation): दोनों कथन पूर्णतः सत्य हैं। नोट्स के 'Important Terms' सेक्शन के अनुसार, "वेटवेयर (Wetware)" शब्द का उपयोग उस समय किया जाता है जब हम कंप्यूटरीकरण की तुलना मानवीय बुद्धिमत्ता या मानव मस्तिष्क (human brain) से करते हैं। हार्डवेयर (Hardware) और सॉफ्टवेयर (Software) के बाद 'वेटवेयर' जैविक प्रणाली (मानव मस्तिष्क) को दर्शाता है जो एक प्रकार के बायोलॉजिकल कंप्यूटर के रूप में न्यूरॉनल नेटवर्क्स की तरह काम करता है। इसका उपयोग उन तकनीकी उपकरणों को संकेत करने के लिए भी किया जाता है जो ब्रेन-कंप्यूटर इंटरफेस (brain-computer interfaces) के विकास में उपयोग होते हैं।


प्रश्न 15: निम्नलिखित में से कौन सी प्रोग्रामिंग भाषा मुख्य रूप से कृत्रिम बुद्धिमत्ता (AI) के विकास से जुड़ी नहीं है, बल्कि वेब पेजों को डिजाइन करने के लिए एक मार्कअप भाषा (Markup Language) है? (Which of the following programming languages is NOT primarily associated with the development of Artificial Intelligence (AI), but is a markup language for designing web pages?)

  • (A) जावा (Java)
  • (B) सी++ (C++)
  • (C) हास्केल (Haskell)
  • (D) एचटीएमएल (HTML)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (D) एचटीएमएल (HTML) व्याख्या (Explanation): HTML (HyperText Markup Language) एक मार्कअप भाषा है जिसका उपयोग वेब पेज बनाने के लिए किया जाता है, न कि कृत्रिम बुद्धिमत्ता (AI) के विकास के लिए। पीडीएफ नोट्स में 'Languages of AI' के तहत स्पष्ट रूप से उल्लिखित है कि:

  • Java: मापनीयता के कारण एंटरप्राइज वातावरण और बड़े AI अनुप्रयोगों के लिए उपयुक्त है।
  • C++: प्रदर्शन लाभ प्रदान करता है, विशेष रूप से गेमिंग AI, कंप्यूटर विज़न और रोबोटिक्स के लिए।
  • Haskell: फंक्शनल प्रोग्रामिंग के लिए हास्केल का उपयोग अल्गोरिथ्म डिज़ाइन और वैज्ञानिक कंप्यूटिंग में किया जाता है। अन्य AI भाषाओं में Python, R, JavaScript, LISP, और Prolog शामिल हैं।

प्रश्न 16: Famed AI (प्रसिद्ध कृत्रिम बुद्धिमत्ता) प्रणालियों को उनके संबंधित विवरणों के साथ सुमेलित करें: (Match the Famed AI systems with their respective descriptions:)

सूची I (Famed AI) सूची II (Description)
1. MYCIN (माइसिन) A. 2011 में Jeopardy! गेम शो जीतने वाला AI (AI that won the Jeopardy! game show in 2011)
2. Watson (वॉटसन) B. 1970 के दशक में चिकित्सा निदान के लिए विकसित प्रारंभिक विशेषज्ञ प्रणाली (Earliest expert system developed in the 1970s for medical diagnosis)
3. Sophia (सोफिया) C. संदर्भ में प्राकृतिक भाषा को समझने वाला 1970 का AI (1970 AI understanding natural language in context)
4. SHRDLU (शैक) D. नागरिकता (सऊदी अरब) प्राप्त करने वाला पहला AI-संचालित ह्यूमनॉइड (First AI-powered humanoid to receive citizenship - Saudi Arabia)

  • (A) 1-B, 2-A, 3-D, 4-C
  • (B) 1-C, 2-B, 3-A, 4-D
  • (C) 1-B, 2-D, 3-A, 4-C
  • (D) 1-A, 2-C, 3-D, 4-B
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (A) 1-B, 2-A, 3-D, 4-C

व्याख्या (Explanation): प्रसिद्ध AI प्रणालियों (Famed AI) का सही मिलान इस प्रकार है:

  • MYCIN: एडवर्ड शॉर्टलिफ (स्टैनफोर्ड यूनिवर्सिटी) द्वारा 1972 में विकसित, यह चिकित्सा निदान (Medical diagnosis) में मदद करने वाली सबसे शुरुआती विशेषज्ञ प्रणालियों (Expert Systems) में से एक थी।
  • Watson: IBM द्वारा विकसित, जिसने 2011 में प्रसिद्ध 'Jeopardy!' गेम शो जीता था।
  • Sophia: डेविड हैनसन (हैंसन रोबोटिक्स) द्वारा 2016 में विकसित, यह पहली AI-संचालित ह्यूमनॉइड रोबोट है जिसे किसी देश (सऊदी अरब) की नागरिकता प्राप्त हुई।
  • SHRDLU: टेरी विनोग्रैड (MIT) द्वारा 1970 में विकसित, यह संदर्भ (context) में प्राकृतिक भाषा को समझने वाला एक प्रारंभिक प्रोग्राम था।

प्रश्न 17: निम्नलिखित में से कौन सा तत्व कैंडिडेट-एलिमिनेशन (Candidate-Elimination) एल्गोरिथम को परिभाषित करता है? (Which of the following elements defines the Candidate-Elimination algorithm?) [PYQ]

  • (A) उम्मीदवारों की परिकल्पना का एक सेट (Just a set of candidates' hypothesis)
  • (B) उदाहरणों का सेट, उम्मीदवार की परिकल्पना का सेट (Set of instances, set of candidate hypothesis)
  • (C) डेटासेट पर निर्भर करता है (Depends on the dataset)
  • (D) बस उदाहरणों का एक सेट (Just a set of instances)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (B) उदाहरणों का सेट, उम्मीदवार की परिकल्पना का सेट (Set of instances, set of candidate hypothesis)

व्याख्या (Explanation): कैंडिडेट-एलिमिनेशन एल्गोरिथम (Candidate-Elimination algorithm) मशीन लर्निंग में इस्तेमाल होने वाला एक कांसेप्ट लर्निंग (Concept Learning) एल्गोरिथम है। यह मुख्य रूप से दो सेटों पर काम करता है:

  1. उदाहरणों का सेट (Set of instances): इसमें प्रशिक्षण उदाहरण (Training Examples) शामिल होते हैं, जिनमें पॉजिटिव उदाहरण और नेगेटिव उदाहरण दोनों होते हैं।
  2. उम्मीदवार की परिकल्पना का सेट (Set of candidate hypothesis): इसे वर्जन स्पेस (Version Space) भी कहा जाता है। यह उन सभी परिकल्पनाओं का संग्रह है जो अब तक देखे गए सभी प्रशिक्षण उदाहरणों के साथ संगत (Consistent) हैं। जब एक पॉजिटिव उदाहरण देखा जाता है, तो असंगत परिकल्पनाएं हटा दी जाती हैं, और यही प्रक्रिया नेगेटिव उदाहरणों के लिए भी होती है। अतः विकल्प (B) सटीक रूप से इन दोनों तत्वों को परिभाषित करता है।

प्रश्न 18: हाल ही में CES 2024 में लॉन्च किए गए AI संचालित डिवाइस 'रैबिट R1' (Rabbit R1) के संबंध में निम्नलिखित में से कौन सा कथन असत्य है? (Which of the following statements is FALSE regarding 'Rabbit R1', an AI-powered device recently launched at CES 2024?)

  • (A) यह एक छोटा डिवाइस है जिसमें 2.88 इंच का टचस्क्रीन डिस्प्ले है और यह हाथ की हथेली में फिट हो जाता है। (It is a small device featuring a 2.88-inch touchscreen display and fits in the palm of the hand.)
  • (B) इसमें एक क्लिक करने योग्य व्हील (Click Wheel) है जिसका उपयोग डिवाइस को नेविगेट करने के लिए किया जाता है। (It has a clickable wheel used to navigate the device.)
  • (C) यह प्राकृतिक भाषा प्रसंस्करण (NLP) का उपयोग करके आपके निर्देशों को समझता है। (It understands your instructions using Natural Language Processing (NLP).)
  • (D) यह एक ऐसा उपकरण है जिसे विशेष रूप से आपके स्मार्टफोन को पूरी तरह से बदलने (Replace) और खत्म करने के लिए बनाया गया है। (It is a device specifically designed to completely replace and eliminate your smartphone.)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (D) यह एक ऐसा उपकरण है जिसे विशेष रूप से आपके स्मार्टफोन को पूरी तरह से बदलने (Replace) और खत्म करने के लिए बनाया गया है। (It is a device specifically designed to completely replace and eliminate your smartphone.)

व्याख्या (Explanation): कथन (D) असत्य है। नोट्स के अनुसार, 'रैबिट R1' (Rabbit R1) एक कृत्रिम बुद्धिमत्ता संचालित डिवाइस है, लेकिन "यह ध्यान रखना महत्वपूर्ण है कि रैबिट R1 आपके स्मार्टफोन को पूरी तरह से बदलने के लिए नहीं बनाया गया है।" यह एक ऐसा उपकरण है जो स्मार्टफोन के कुछ कार्यों (जैसे कॉल करना, संदेश भेजना, किराने का सामान ऑर्डर करना, संगीत चलाना आदि) को अंतर्निहित आवाज सहायक (voice assistant) की मदद से अधिक सरल और सुविधाजनक बनाता है। इसमें 2.88 इंच की स्क्रीन, एक क्लिक व्हील, और NLP (प्राकृतिक भाषा प्रसंस्करण) सपोर्ट मौजूद है।


प्रश्न 19: मशीन लर्निंग (Machine Learning) और AI के संदर्भ में "ह्यूरिस्टिक्स" (Heuristics) शब्द का क्या अर्थ है? (What is the meaning of the term "Heuristics" in the context of Machine Learning and AI?)

  • (A) यह एक ऐसी तकनीक है जो हमेशा 100% सटीक और पूर्ण समाधान (perfect solution) की गारंटी देती है। (It is a technique that always guarantees a 100% accurate and perfect solution.)
  • (B) यह केवल हार्डवेयर उपकरणों (Hardware devices) के विकास से संबंधित एक भौतिक प्रक्रिया है। (It is a physical process related only to the development of hardware devices.)
  • (C) यह समस्या को हल करने के लिए एक अनुकूल और प्रभावी दृष्टिकोण या 'अनुमान' (approximation) है, जो जल्दी और सटीक नतीजे प्राप्त करने में मदद करता है। (It is an adaptable and effective approach or 'approximation' to solve a problem, helping to achieve quick and accurate results.)
  • (D) यह एक वायरस है जो AI सिस्टम को नष्ट कर देता है। (It is a virus that destroys AI systems.)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (C) यह समस्या को हल करने के लिए एक अनुकूल और प्रभावी दृष्टिकोण या 'अनुमान' (approximation) है, जो जल्दी और सटीक नतीजे प्राप्त करने में मदद करता है। (It is an adaptable and effective approach or 'approximation' to solve a problem, helping to achieve quick and accurate results.)

व्याख्या (Explanation): ह्यूरिस्टिक्स (Heuristic) एक विशेष तरह की तकनीक या प्रक्रिया है जो किसी समस्या को हल करने के लिए एक व्यावहारिक दृष्टिकोण, दिशा या 'अनुमान' (Rule of thumb / Approximation) प्रदान करती है। कंप्यूटर विज्ञान, खोज एल्गोरिदम (Search algorithms) और मशीन लर्निंग में इसका उपयोग तब किया जाता है जब एक आदर्श समाधान ढूँढना असंभव या बहुत धीमा हो। यह तकनीक जल्दी और पर्याप्त रूप से सटीक नतीजे प्राप्त करने में मदद करती है, जिसे "गुस्ताखी" या "सामान्य ज्ञान" (common sense) वाला हिस्सा भी कहा जाता है, जो समस्या के किसी विशिष्ट पहलू पर ध्यान केंद्रित करता है।


प्रश्न 20: निम्नलिखित कृत्रिम बुद्धिमत्ता (AI) प्रकारों पर विचार करें, जिन्हें जटिलता और क्षमताओं के आधार पर (based on complexity and capabilities) वर्गीकृत किया गया है। इनमें से कौन सा AI का प्रकार अभी तक पूरी तरह से विकसित नहीं हुआ है, जिसका उद्देश्य मशीनों द्वारा मानव भावनाओं, विश्वासों और मानसिक स्थितियों को समझना है? (Consider the following types of Artificial Intelligence (AI) classified based on complexity and capabilities. Which of these AI types is not yet fully developed, aiming for machines to understand human emotions, beliefs, and mental states?)

  • (A) रिएक्टिव मशीन एआई (Reactive Machine AI)
  • (B) लिमिटेड मेमोरी एआई (Limited memory AI)
  • (C) थ्योरी ऑफ माइंड एआई (Theory of Mind AI)
  • (D) जनरल एआई (General AI)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (C) थ्योरी ऑफ माइंड एआई (Theory of Mind AI)

व्याख्या (Explanation): "थ्योरी ऑफ माइंड एआई" (Theory of Mind AI) AI का वह प्रकार है जो अभी तक पूरी तरह से विकसित नहीं हुआ है। इस AI का मुख्य उद्देश्य यह है कि मशीनें मानव भावनाओं (human emotions), विश्वासों, इरादों और अन्य मानसिक स्थितियों को समझ सकें और उसी के अनुसार बातचीत कर सकें। इसमें आंतरिक मानसिक स्थितियों के आधार पर दूसरों के व्यवहार की भविष्यवाणी करना शामिल है।

  • रिएक्टिव मशीन: केवल वर्तमान परिदृश्य का विश्लेषण करती है (उदा: चेस)।
  • लिमिटेड मेमोरी: भविष्य में निर्णय लेने के लिए कुछ पुरानी जानकारी संग्रहीत करती है (उदा: सेल्फ-ड्राइविंग कारें)।

UPSSSC Lekhpal: MCQs based on Machine Learning

यहाँ आगामी UPSSSC लेखपाल 2026 और अन्य UPSSSC Latest Exams को ध्यान में रखते हुए Machine Learning-based Computer Questions तैयार किए गए हैं। इस सेक्शन में Artificial Intelligence के बाद, Machine Learning और उससे जुड़े UPSSSC Advanced Computer Topics के Bilingual Computer Questions शामिल किए गए हैं। यह बेहतरीन और सटीक संकलन आपकी परीक्षा के कॉन्फिडेंस को आसमान पर ले जाएगा।


A detailed technological infographic timeline illustrating key milestones in Artificial Intelligence. It begins in the 1950s with the Turing Test and Dartmouth Conference, shows the development of expert systems in the 1970s (MYCIN), moves to Deep Blue's victory in 1997, Watson's win in 2011, and concludes with modern AI breakthroughs like ChatGPT in 2022. Each milestone has icons and clean digital labels. The overall design uses a branching pathway structure on a sleek, dark background with futuristic light elements.

प्रश्न 21: मशीन लर्निंग (Machine Learning) का आविष्कार 1959 में किसके द्वारा किया गया था, जिसमें कंप्यूटर सिस्टम को बिना स्पष्ट रूप से प्रोग्राम किए डेटा से सीखने की क्षमता प्रदान की जाती है? (Who invented Machine Learning in 1959, which gives computer systems the ability to learn from data without being explicitly programmed?)

  • (A) एलन ट्यूरिंग (Alan Turing)
  • (B) आर्थर सैमुअल (Arthur Samuel)
  • (C) जॉन मैकार्थी (John McCarthy)
  • (D) ज्योफ्री हिंटन (Geoffrey Hinton)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (B) आर्थर सैमुअल (Arthur Samuel)

व्याख्या (Explanation): मशीन लर्निंग (Machine Learning) का आविष्कार 1959 में IBM के शोधकर्ता आर्थर सैमुअल (Arthur Samuel) के द्वारा किया गया था । मशीन लर्निंग (ML) आर्टिफिशियल इंटेलिजेंस (AI) का एक उपक्षेत्र (subset) है । इसमें कंप्यूटर प्रोग्राम को विशेष रूप से डिज़ाइन किया जाता है ताकि वे बड़े डेटा (data) के पैटर्न (patterns) और संबंधों (relations) को पहचान सकें । इसकी मदद से सिस्टम को बिना विशेष रूप से प्रोग्राम किए (without being explicitly programmed) भविष्यवाणी (prediction) करने या निर्णय (decision) लेने में सक्षम बनाया जाता है ।


प्रश्न 22: मशीन लर्निंग (Machine Learning) की कार्य प्रक्रिया (Working Process) के चरणों को उनके सही अनुक्रम (Correct Sequence) में व्यवस्थित करें: (Arrange the steps of the working process of Machine Learning in their correct sequence:)

  1. मॉडल मूल्यांकन (Model Evaluation)
  2. डेटा प्रीप्रोसेसिंग (Data Preprocessing)
  3. मॉडल तैनाती (Model Deployment)
  4. मॉडल प्रशिक्षण (Model Training)
  5. डेटा संग्रहण (Data Collection)
  • (A) 5, 2, 4, 1, 3
  • (B) 5, 4, 2, 1, 3
  • (C) 2, 5, 4, 3, 1
  • (D) 5, 2, 1, 4, 3
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (A) 5, 2, 4, 1, 3

व्याख्या (Explanation): मशीन लर्निंग की कार्य प्रक्रिया (Working Process of ML) के सही और मानक चरण इस प्रकार हैं:

  1. डेटा संग्रहण (Data Collection): विभिन्न स्रोतों से कच्चा डेटा एकत्र करना ।
  2. डेटा प्रीप्रोसेसिंग (Data Preprocessing): डेटा की सफाई (Cleaning), नॉर्मलाइजेशन (normalization) और ट्रांसफॉर्मेशन (transformation) करना ।
  3. फीचर इंजीनियरिंग और मॉडल चयन (Feature Engineering & Model Selection): महत्वपूर्ण फीचर्स को चुनना और उपयुक्त एल्गोरिदम (Algorithm) का चयन करना ।
  4. मॉडल प्रशिक्षण (Model Training): चयनित एल्गोरिदम को डेटा पर ट्रेन (train) करना ।
  5. मॉडल मूल्यांकन (Model Evaluation): टेस्टिंग (Testing) और वैलिडेशन (validation) से मॉडल के प्रदर्शन का आकलन करना ।
  6. मॉडल तैनाती (Model Deployment): तैयार मॉडल को प्रोडक्शन (Production) में लागू करना । अतः सही क्रम 5 -> 2 -> 4 -> 1 -> 3 होगा।

प्रश्न 23: निम्नलिखित में से कौन सा ML एल्गोरिथम बिना लेबल वाले डेटा के साथ इस्तेमाल किया जा सकता है? (Which of the following ML algorithms can be used with unlabelled data?) [PYQ]

  • (A) इंस्टेंस-आधारित एल्गोरिथम (Instance-based algorithms)
  • (B) रिग्रेशन एल्गोरिथम (Regression algorithms)
  • (C) क्लस्टरिंग एल्गोरिथम (Clustering algorithm)
  • (D) उपरोक्त सभी (All of the above)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (C) क्लस्टरिंग एल्गोरिथम (Clustering algorithm)

व्याख्या (Explanation): क्लस्टरिंग एल्गोरिथम (Clustering algorithm) एक 'अनसुपरवाइज्ड लर्निंग' (Unsupervised learning) एल्गोरिथम है, जिसका उपयोग बिना लेबल वाले डेटा (unlabelled data) के साथ किया जाता है । यह एल्गोरिथम डेटा पॉइंट्स (data points) को उनकी समानता (similarity) के आधार पर समूहों या क्लस्टर्स (clusters) में विभाजित करता है । इसका मुख्य उद्देश्य डेटा की आंतरिक संरचना (internal structure) को समझना और छुपे हुए पैटर्न (patterns) खोजना होता है । दूसरी ओर, रिग्रेशन (Regression) और इंस्टेंस-आधारित (Instance-based) एल्गोरिदम सुपरवाइज्ड लर्निंग (Supervised learning) के तहत आते हैं, जिन्हें प्रशिक्षण के लिए लेबल किए गए डेटा (labelled data) की आवश्यकता होती है ।


प्रश्न 24: निम्नलिखित में से, K-निकटतम पड़ोसियों (KNN) की विशेषता कौन सी नहीं है? (From the following, which is not a feature of K-Nearest Neighbors (KNN)?) [PYQ]

  • (A) KNN सरल और बहुत सहज है (KNN is simple and pretty intuitive)
  • (B) KNN लगातार विकसित होता रहता है (KNN constantly evolves)
  • (C) KNN में मान्यताएँ होती हैं (KNN has assumptions)
  • (D) कोई प्रशिक्षण चरण नहीं (No Training Step)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (C) KNN में मान्यताएँ होती हैं (KNN has assumptions)

व्याख्या (Explanation): "KNN में मान्यताएँ होती हैं" (KNN has assumptions) यह KNN की विशेषता नहीं है । K-निकटतम पड़ोसी (KNN) एल्गोरिथम एक नॉन-पैरामेट्रिक (non-parametric) एल्गोरिथम है, जिसका अर्थ है कि यह डेटा के अंतर्निहित वितरण (underlying distribution) के बारे में कोई कठोर धारणा (rigid assumptions) नहीं बनाता है । अन्य सभी कथन KNN की विशेषताएं हैं: यह सरल और सहज है । इसे 'लेज़ी लर्नर' (lazy learner) कहा जाता है क्योंकि इसमें एक अलग 'प्रशिक्षण चरण' (training step) नहीं होता है; यह मूल रूप से पूरे प्रशिक्षण डेटासेट (training dataset) को याद रखता है और अनुमान (prediction) के समय ही गणना करता है । जैसे-जैसे नया डेटा आता है, यह लगातार विकसित होता रहता है ।


प्रश्न 25: मशीन लर्निंग (ML) एल्गोरिदम और उनके संबंधित प्रकार (Type of ML) को सही ढंग से सुमेलित करें: (Correctly match the Machine Learning (ML) algorithms with their respective types:)

सूची I (ML Algorithm) सूची II (Type of ML)
1. रैंडम फ़ॉरेस्ट (Random Forest) A. एसोसिएशन / अनसुपरवाइज्ड लर्निंग (Association / Unsupervised Learning)
2. K-मीन्स (K-Means) B. सुदृढीकरण सीखना (Reinforcement Learning)
3. एप्रीओरी (Apriori) C. वर्गीकरण / सुपरवाइज्ड लर्निंग (Classification / Supervised Learning)
4. क्यू-लर्निंग (Q-Learning) D. क्लस्टरिंग / अनसुपरवाइज्ड लर्निंग (Clustering / Unsupervised Learning)

  • (A) 1-C, 2-D, 3-A, 4-B
  • (B) 1-D, 2-C, 3-B, 4-A
  • (C) 1-C, 2-A, 3-D, 4-B
  • (D) 1-B, 2-D, 3-C, 4-A
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (A) 1-C, 2-D, 3-A, 4-B

व्याख्या (Explanation): एल्गोरिदम और उनके प्रकारों का सही मिलान इस प्रकार है:

  • रैंडम फ़ॉरेस्ट (Random Forest): यह कई डिसीजन ट्रीज़ (Decision Trees) का संग्रह (Ensemble) है, जो सुपरवाइज्ड लर्निंग (Supervised Learning) के तहत क्लासिफिकेशन (Classification) और रिग्रेशन के लिए उपयोग किया जाता है ।
  • K-मीन्स (K-Means): यह एक अनसुपरवाइज्ड लर्निंग (Unsupervised Learning) एल्गोरिदम है जो डेटा को समूहों (Clusters) में विभाजित करता है (क्लस्टरिंग) ।
  • एप्रीओरी (Apriori): यह एक अनसुपरवाइज्ड लर्निंग (Unsupervised Learning) एल्गोरिदम है जिसका उपयोग डेटा में आइटम्स के बीच संबंध खोजने (Association Rule Learning) के लिए किया जाता है ।
  • क्यू-लर्निंग (Q-Learning): यह एक मॉडल-फ्री Reinforcement Learning (RL) एल्गोरिदम है, जो भविष्य में सबसे अच्छा एक्शन (Best Action) चुनने के लिए अलग-अलग अनुभवों (Exploration) से सीखता है ।

प्रश्न 26: नीचे दो कथन दिए गए हैं, एक को अभिकथन (Assertion - A) और दूसरे को कारण (Reason - R) के रूप में लेबल किया गया है। सही विकल्प का चयन करें। (Below are two statements, one labeled as Assertion (A) and the other as Reason (R). Select the correct option.)

अभिकथन (A): 'ईमेल स्पैम डिटेक्शन' (Email Spam Detection) और 'रोग निदान' (Disease Diagnosis) सुपरवाइज्ड लर्निंग में 'वर्गीकरण' (Classification) के उदाहरण हैं। (Assertion (A): 'Email Spam Detection' and 'Disease Diagnosis' are examples of 'Classification' in Supervised Learning.)

कारण (R): वर्गीकरण (Classification) मॉडल निरंतर मानों (continuous values) का अनुमान लगाता है, जबकि रिग्रेशन (Regression) मॉडल डेटा को विभिन्न श्रेणियों (distinct classes) में वर्गीकृत करता है। (Reason (R): The Classification model predicts continuous values, whereas the Regression model categorizes data into distinct classes.)

  • (A) A और R दोनों सत्य हैं, और R, A की सही व्याख्या है। (Both A and R are true, and R is the correct explanation of A.)
  • (B) A और R दोनों सत्य हैं, लेकिन R, A की सही व्याख्या नहीं है। (Both A and R are true, but R is not the correct explanation of A.)
  • (C) A सत्य है, लेकिन R असत्य है। (A is true, but R is false.)
  • (D) A असत्य है, लेकिन R सत्य है। (A is false, but R is true.)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (C) A सत्य है, लेकिन R असत्य है। (A is true, but R is false.)

व्याख्या (Explanation): अभिकथन (A) सत्य है क्योंकि ईमेल को "स्पैम" या "नॉन-स्पैम" में बाँटना और रोगी के लक्षणों के आधार पर बीमारी की पहचान करना 'वर्गीकरण' (Classification) के उदाहरण हैं । हालाँकि, कारण (R) पूरी तरह से असत्य है क्योंकि परिभाषाओं को उल्टा लिखा गया है। सही परिभाषा यह है कि वर्गीकरण (Classification) मॉडल आउटपुट के सीमित विकल्पों के लिए प्रयुक्त होता है और डेटा को विभिन्न श्रेणियों में वर्गीकृत करता है । इसके विपरीत, रिग्रेशन (Regression) मॉडल का उपयोग निरंतर मान (continuous values) (जैसे कीमत का अनुमान या स्कोर का अनुमान) की भविष्यवाणी करने के लिए किया जाता है ।


प्रश्न 27: निम्नलिखित में से कौन सा मशीन लर्निंग (ML) में एक क्लस्टरिंग एल्गोरिदम (Clustering algorithm) है? (Which of the following is a clustering algorithm in ML?) [PYQ]

  • (A) कार्ट (CART)
  • (B) अपेक्षा अधिकतमकरण (Expectation Maximisation)
  • (C) एप्रीओरी (Apriori)
  • (D) गॉसियन नैवे बेयस (Gaussian Naive Bayes)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (B) अपेक्षा अधिकतमकरण (Expectation Maximisation)

व्याख्या (Explanation): 'अपेक्षा अधिकतमकरण' (Expectation-Maximisation - EM) एक इटरेटिव एल्गोरिथम (iterative algorithm) है । क्लस्टरिंग में, EM का उपयोग अक्सर गॉसियन मिक्सचर मॉडल (Gaussian Mixture Models - GMM) के साथ किया जाता है, जहाँ यह माना जाता है कि डेटा कई गॉसियन डिस्ट्रीब्यूशन (Gaussian distributions) के मिश्रण से उत्पन्न हुआ है और प्रत्येक डिस्ट्रीब्यूशन एक क्लस्टर का प्रतिनिधित्व करता है । अन्य विकल्प:

  • कार्ट (CART): यह वर्गीकरण (classification) या प्रतिगमन (regression) के लिए डिसीजन ट्री (decision trees) बनाने का एक सुपरवाइज्ड लर्निंग (supervised learning) एल्गोरिथम है ।
  • एप्रीओरी (Apriori): यह अनसुपरवाइज्ड लर्निंग के तहत एसोसिएशन रूल माइनिंग (association rule mining) का एल्गोरिथम है ।
  • गॉसियन नैवे बेयस (Gaussian Naive Bayes): यह बेयस प्रमेय पर आधारित एक सुपरवाइज्ड लर्निंग क्लासिफायर (supervised learning classifier) है ।

प्रश्न 28: मशीन लर्निंग के किस प्रकार में एक 'एजेंट' (Agent) किसी 'वातावरण' (Environment) में कार्य (Actions) करता है और ट्रायल एंड एरर (Trial and Error) के माध्यम से सीखकर अपने कार्यों के आधार पर 'पुरस्कार' (Rewards) या दंड प्राप्त करता है? (In which type of Machine Learning does an 'Agent' learn through Trial and Error by performing 'Actions' in an 'Environment' and receiving 'Rewards' or penalties based on its actions?)

  • (A) सुपरवाइज्ड लर्निंग (Supervised Learning)
  • (B) सेमी-सुपरवाइज्ड लर्निंग (Semi-Supervised Learning)
  • (C) अनसुपरवाइज्ड लर्निंग (Unsupervised Learning)
  • (D) रीइन्फोर्समेंट लर्निंग (Reinforcement Learning)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (D) रीइन्फोर्समेंट लर्निंग (Reinforcement Learning)

व्याख्या (Explanation): रीइन्फोर्समेंट लर्निंग (Reinforcement Learning - RL) फीडबैक (Feedback) पर आधारित एक मशीन लर्निंग का प्रकार है । इसमें एक एजेंट (Agent) किसी वातावरण (Environment) में कार्य (Actions) करता है और अपने निर्णयों के लिए सकारात्मक या नकारात्मक पुरस्कार (Rewards) प्राप्त करता है । एजेंट का लक्ष्य परीक्षण और त्रुटि (trial and error) के माध्यम से सीखते हुए भविष्य में पुरस्कार को अधिकतम (maximize) करना होता है । गेमिंग (जैसे शतरंज), नेविगेशन और रोबोटिक्स (Robotics) इसके प्रमुख उदाहरण हैं ।


प्रश्न 29: मशीन लर्निंग मॉडल विकसित करने के लिए निम्नलिखित में से किस फ्रेमवर्क का व्यापक रूप से उपयोग किया जाता है? (Which framework is widely used for developing machine learning models?) [PYQ]

  • (A) ओरेकल (Oracle)
  • (B) मोंगोडीबी (MongoDB)
  • (C) विज़ुअल बेसिक (Visual Basic)
  • (D) टेन्सरफ्लो (TensorFlow)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (D) टेन्सरफ्लो (TensorFlow)

व्याख्या (Explanation): टेन्सरफ्लो (TensorFlow) एक बहुत ही लोकप्रिय और व्यापक रूप से उपयोग किया जाने वाला ओपन-सोर्स मशीन लर्निंग फ्रेमवर्क (open-source machine learning framework) है, जिसे 'Google Brain' द्वारा विकसित किया गया है । यह मशीन लर्निंग (Machine learning) और डीप लर्निंग (Deep learning) मॉडल बनाने तथा उन्हें डिप्लॉय करने के लिए उपकरणों (tools) और पुस्तकालयों (libraries) का एक व्यापक पारिस्थितिकी तंत्र प्रदान करता है । दूसरी ओर, ओरेकल (Oracle) और मोंगोडीबी (MongoDB - NoSQL) डेटाबेस सॉफ़्टवेयर हैं जिनका उपयोग डेटा स्टोरेज के लिए होता है, मॉडल बनाने के लिए नहीं । विज़ुअल बेसिक (Visual Basic) मुख्य रूप से विंडोज़ एप्लिकेशन विकसित करने के लिए एक प्रोग्रामिंग भाषा है ।


प्रश्न 30: मशीन लर्निंग मॉडल की प्रशिक्षण प्रक्रिया में उस स्थिति को क्या कहा जाता है जब मॉडल 'ट्रेनिंग डेटा' (Training Data) के शोर (Noise) और अनियमितताओं को इतनी गहराई से सीख लेता है कि वह नए या अनदेखे डेटा (unseen data) पर सटीक भविष्यवाणी करने में विफल हो जाता है? (In the training process of a machine learning model, what is the condition called when the model learns the noise and irregularities of the 'Training Data' so deeply that it fails to accurately predict on new or unseen data?)

  • (A) अंडरफिटिंग (Underfitting)
  • (B) ओवरफिटिंग (Overfitting)
  • (C) वैनिशिंग ग्रेडिएंट्स (Vanishing Gradients)
  • (D) एक्सप्लोडिंग ग्रेडिएंट्स (Exploding Gradients)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (B) ओवरफिटिंग (Overfitting)

व्याख्या (Explanation): जब एक मशीन लर्निंग मॉडल 'ट्रेनिंग डेटा' (Training Data) को इतनी अच्छी तरह से सीख लेता है (जिसमें शोर और अनियमितताएं भी शामिल हैं) कि वह नए (Unseen) डेटा पर अच्छा प्रदर्शन (Performance) नहीं कर पाता, तो इस समस्या को 'ओवरफिटिंग' (Overfitting) कहा जाता है । इसका मतलब है कि मॉडल 'उच्च विचरण' (high variance) वाला हो जाता है और यह आमतौर पर तब होता है जब मॉडल बहुत अधिक जटिल (complex) होता है । ओवरफिटिंग को रोकने के लिए रेग्युलराइजेशन (Regularization - जैसे L1, L2, Dropout), अर्ली स्टॉपिंग (Early Stopping) और क्रॉस-वैलिडेशन (Cross-Validation) जैसी तकनीकों का उपयोग किया जाता है ।


UPSSSC Lekhpal: MCQs based on Deep Learning

यहाँ UPSSSC लेखपाल 2026 की परीक्षा के लिए Deep learning based Computer Questions दिए गए हैं। डीप लर्निंग, जो मानव मस्तिष्क के न्यूरल नेटवर्क से प्रेरित है, आज के समय में UPSSSC Latest Exams का एक महत्वपूर्ण हिस्सा बन चुका है।


A clear, educational infographic chart comparing three types of Machine Learning: Supervised, Unsupervised, and Reinforcement. It uses three separate colorful columns. Supervised shows labeled data and examples like spam detection. Unsupervised shows unlabeled data and clustering. Reinforcement shows an agent interacting with an environment to receive rewards and penalties. Arrows clearly illustrate the distinct learning processes in each method. The style is clean, modern, with simplified graphics and readable labels, on a blue-cyan gradient background.

प्रश्न 31: मशीन लर्निंग में सुपरवाइज्ड लर्निंग (Supervised Learning) के अंतर्गत आने वाले उस क्लासिफिकेशन एल्गोरिदम का क्या नाम है, जो कई डिसीजन ट्रीज़ (Decision Trees) का संग्रह (Ensemble) होता है और अधिक सटीक तथा स्थिर भविष्यवाणी (Prediction) प्रदान करता है? (In Machine Learning, what is the name of the classification algorithm under Supervised Learning, which is a collection (Ensemble) of multiple Decision Trees and provides more accurate and stable predictions?)

  • (A) सपोर्ट वेक्टर मशीन (Support Vector Machine - SVM)
  • (B) रैंडम फ़ॉरेस्ट (Random Forest)
  • (C) लॉजिस्टिक रिग्रेशन (Logistic Regression)
  • (D) के-नियरेस्ट नेबर्स (K-Nearest Neighbors - KNN)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (B) रैंडम फ़ॉरेस्ट (Random Forest)

व्याख्या (Explanation): रैंडम फ़ॉरेस्ट (Random Forest) एक सुपरवाइज्ड लर्निंग (Supervised Learning) एल्गोरिदम है जिसका उपयोग क्लासिफिकेशन (Classification) और रिग्रेशन (Regression) दोनों के लिए किया जाता है । यह कई डिसीजन ट्रीज़ (Decision Trees) का एक 'संग्रह' या 'एन्सेम्बल' (Ensemble) है । यह बूटस्ट्रैप सैंपलिंग (bootstrap sampling) और फीचर रैंडमनेस का उपयोग करके कई पेड़ (Trees) बनाता है और फिर उनके परिणामों को एकत्रित (aggregate) करके सटीक और स्थिर भविष्यवाणी (stable prediction) प्रदान करता है । इसके विपरीत, 'डिसीजन ट्री' केवल एक पेड़ पर आधारित होता है जो डेटा को शाखाओं (Branches) में विभाजित करता है ।


प्रश्न 32: उस तकनीक या प्रक्रिया को क्या कहा जाता है जिसमें मशीन लर्निंग का उपयोग करके बड़े डेटा सेट्स (Large Datasets) से महत्वपूर्ण जानकारी, छुपे हुए पैटर्न (Hidden Patterns) और रुझान (Trends) निकाले जाते हैं? (What is the technique or process called in which Machine Learning is used to extract meaningful information, hidden patterns, and trends from Large Datasets?)

  • (A) डेटा माइनिंग (Data Mining)
  • (B) डेटा एन्क्रिप्शन (Data Encryption)
  • (C) डेटा मास्किंग (Data Masking)
  • (D) डेटा रिडंडेंसी (Data Redundancy)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (A) डेटा माइनिंग (Data Mining)

व्याख्या (Explanation): डेटा माइनिंग (Data Mining) एक प्रक्रिया है जिसमें बड़े डेटा सेट्स से महत्वपूर्ण जानकारी, पैटर्न और रुझान निकाले जाते हैं । यह प्रक्रिया कई चरणों में होती है, जिनमें डेटा को साफ करना, पूर्व-प्रसंस्करण करना, पैटर्न पहचानना और परिणामों का मूल्यांकन करना शामिल है । डेटा माइनिंग का मुख्य उद्देश्य व्यवसायिक निर्णय लेने (business decisions), भविष्यवाणी करने और समस्याओं को हल करने में सहायता करना है । इसमें क्लस्टरिंग (Clustering), क्लासिफिकेशन (Classification), रिग्रेशन (Regression) और एसोसिएशन रूल लर्निंग (Association Rule Learning) जैसी तकनीकों का उपयोग किया जाता है ।


प्रश्न 33: किस 'रीइन्फोर्समेंट लर्निंग' (Reinforcement Learning) एल्गोरिदम में 'क्यू-लर्निंग' (Q-Learning) को गहरे न्यूरल नेटवर्क (Deep Neural Network) के साथ जोड़ा जाता है ताकि जटिल और उच्च-डाइमेंशनल समस्याओं (Complex and High-Dimensional Problems) को आसानी से हल किया जा सके? (In which 'Reinforcement Learning' algorithm is 'Q-Learning' combined with Deep Neural Networks to easily solve Complex and High-Dimensional Problems?)

  • (A) मार्कोव डिसीजन प्रोसेस (Markov Decision Process - MDP)
  • (B) डीप क्यू-नेटवर्क्स (Deep Q-Networks - DQN)
  • (C) डायना-क्यू (Dyna-Q)
  • (D) सार्सा (SARSA)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (B) डीप क्यू-नेटवर्क्स (Deep Q-Networks - DQN)

व्याख्या (Explanation): डीप क्यू-नेटवर्क्स (Deep Q-Networks - DQN), क्यू-लर्निंग (Q-Learning) का एक उन्नत रूप है। यह Q-Learning को गहरे न्यूरल नेटवर्क (Deep Neural Network) के साथ जोड़ता है, ताकि जटिल और उच्च-डाइमेंशनल समस्याओं (Complex and High-Dimensional Problems) को हल किया जा सके । इस प्रक्रिया में, Q-Learning में उपयोग होने वाली साधारण 'Q-Table' को गहरे न्यूरल नेटवर्क द्वारा बदल दिया जाता है ।


प्रश्न 34: "डीप लर्निंग" (Deep Learning) के जनक के रूप में किसे जाना जाता है, जिन्होंने 1958 में "परसेप्ट्रॉन" (Perceptron) नामक पहला न्यूरल नेटवर्क विकसित किया था जो एक बायोलॉजिकल न्यूरॉन को मॉडल करता है? (Who is known as the father of "Deep Learning", who developed the first neural network called "Perceptron" in 1958 which models a biological neuron?)

  • (A) वॉरेन मैककुलोच (Warren McCulloch)
  • (B) ज्योफ्री हिंटन (Geoffrey Hinton)
  • (C) यान लेकुन (Yann LeCun)
  • (D) फ्रैंक रोसेनब्लैट (Frank Rosenblatt)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (D) फ्रैंक रोसेनब्लैट (Frank Rosenblatt)

व्याख्या (Explanation): 'डीप लर्निंग' (Deep Learning) का जनक फ्रैंक रोसेनब्लैट (Frank Rosenblatt) को माना जाता है । उन्होंने 1958 में पहला न्यूरल नेटवर्क "परसेप्ट्रॉन" (Perceptron) विकसित किया था, जो एक बायोलॉजिकल न्यूरॉन को मॉडल करता है और यह एक 'एकल लेयर न्यूरल नेटवर्क' (single-layer neural network) था । अन्य हस्तियों का योगदान: वॉरेन मैककुलोच और वाल्टर पिट्स ने 1943 में न्यूरॉन का पहला गणितीय मॉडल ("McCulloch-Pitts Neuron") प्रस्तुत किया था । ज्योफ्री हिंटन ने 1986 में बैकप्रोपेगेशन (Backpropagation) एल्गोरिदम विकसित किया और उन्हें 'गॉडफादर ऑफ डीप लर्निंग' कहा जाता है । यान लेकुन ने 1990 के दशक में CNNs (Convolutional Neural Networks) विकसित किए ।


प्रश्न 35: डिजिटल वित्तीय समीक्षाओं (digital financial reviews) के सेंटिमेंट एनालिसिस (sentiment analysis) में प्राकृतिक भाषा प्रसंस्करण (NLP) कार्यों के लिए कौन सा मशीन लर्निंग मॉडल सबसे प्रभावी है? (Which machine learning model is most effective for natural language processing tasks in sentiment analysis of digital financial reviews?) [PYQ]

  • (A) डिसीजन ट्रीज़ (Decision Trees)
  • (B) के-नियरेस्ट नेबर्स (K-Nearest Neighbours - KNN)
  • (C) नैवे बेयस (Naïve Bayes)
  • (D) एलएसटीएम नेटवर्क्स (LSTM - Long Short-Term Memory Networks)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (D) एलएसटीएम नेटवर्क्स (LSTM - Long Short-Term Memory Networks)

व्याख्या (Explanation): एलएसटीएम (LSTM - Long Short-Term Memory) एक विशेष प्रकार का रेकुरेंट न्यूरल नेटवर्क (Recurrent Neural Network - RNN) है, जो लंबे समय तक सीक्वेंशियल डेटा (Sequential data) को याद रखने में सक्षम है । NLP (प्राकृतिक भाषा प्रसंस्करण) और सेंटिमेंट एनालिसिस (भावना विश्लेषण) जैसे कार्यों के लिए LSTM विशेष रूप से अनुकूल हैं क्योंकि वे पाठ (Text) में लंबी दूरी की निर्भरता (long-range dependencies) को प्रभावी ढंग से पकड़ सकते हैं । इसका मतलब है कि वे बाद के शब्दों की भावना (sentiment) को समझने के लिए वाक्य में पहले आए शब्दों के संदर्भ (context) पर विचार करते हैं , जो वित्तीय समीक्षाओं की गहराई समझने के लिए महत्वपूर्ण है ।


प्रश्न 36: डीप लर्निंग तकनीकों (Deep Learning Techniques) को उनके प्राथमिक उपयोगों के साथ सही ढंग से सुमेलित करें: (Correctly match the Deep Learning Techniques with their primary uses:)

सूची I (DL Technique) सूची II (Primary Use)
1. सीएनएन (CNN - Convolutional Neural Networks) A. सिंथेटिक डेटा और डीपफेक उत्पन्न करना (Generating Synthetic Data and Deepfakes)
2. आरएनएन (RNN - Recurrent Neural Networks) B. छवि प्रसंस्करण और वस्तु पहचान (Image Processing and Object Detection)
3. जीएएन (GAN - Generative Adversarial Networks) C. मशीन ट्रांसलेशन और टेक्स्ट जनरेशन (Machine Translation and Text Generation)
4. ट्रांसफॉर्मर (Transformers) D. अनुक्रमिक डेटा और समय श्रृंखला (Sequential Data and Time Series)

  • (A) 1-B, 2-D, 3-A, 4-C
  • (B) 1-D, 2-B, 3-C, 4-A
  • (C) 1-A, 2-C, 3-B, 4-D
  • (D) 1-B, 2-A, 3-D, 4-C
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (A) 1-B, 2-D, 3-A, 4-C

व्याख्या (Explanation): न्यूरल नेटवर्क्स के इन प्रकारों का सही मिलान इस प्रकार है:

  • CNN (Convolutional Neural Networks): विशेष रूप से छवि प्रसंस्करण (Image Processing), फेस रिकग्निशन, और वस्तु पहचान (Object Detection) के लिए उपयोगी है ।
  • RNN (Recurrent Neural Networks): यह अनुक्रमिक डेटा (Sequential Data) जैसे समय श्रृंखला (Time Series), पाठ (Text) और भाषण (Speech) के लिए उपयोगी है ।
  • GAN (Generative Adversarial Networks): कृत्रिम डेटा (Synthetic Data) उत्पन्न करने के लिए उपयोग होता है, जैसे इमेज जनरेशन और डीपफेक्स (Deepfakes) ।
  • Transformers (ट्रांसफॉर्मर्स): प्राकृतिक भाषा प्रसंस्करण (NLP), मशीन ट्रांसलेशन (Machine Translation) और टेक्स्ट जनरेशन (जैसे ChatGPT, BERT) में इसका व्यापक उपयोग होता है ।

प्रश्न 37: प्रशिक्षण (Training) के दौरान एक न्यूरल नेटवर्क (Neural Network) को अनुकूलित (Optimize) करने के लिए निम्नलिखित में से किसका उपयोग किया जाता है? (Which of the following is used to optimize a neural network during training?) [PYQ]

  • (A) बैकप्रोपेगेशन (Backpropagation)
  • (B) ग्रेडिएंट डिसेंट (Gradient Descent)
  • (C) लॉस फंक्शन (Loss Function)
  • (D) उपरोक्त सभी (All of the above)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (D) उपरोक्त सभी (All of the above)

व्याख्या (Explanation): न्यूरल नेटवर्क के प्रशिक्षण (Training) के दौरान ऑप्टिमाइजेशन (Optimization) के लिए बैकप्रोपेगेशन, ग्रेडिएंट डिसेंट और लॉस फंक्शन तीनों का एक साथ उपयोग किया जाता है ।

  • लॉस फंक्शन (Loss Function): यह मापता है कि नेटवर्क की भविष्यवाणी (Prediction) वास्तविक आउटपुट से कितनी गलत है (त्रुटि मापना) ।
  • बैकप्रोपेगेशन (Backpropagation): यह नेटवर्क के वज़नों (Weights) के ग्रेडिएंट्स की गणना करता है और त्रुटि को पीछे की दिशा में प्रवाहित करता है ।
  • ग्रेडिएंट डिसेंट (Gradient Descent): यह बैकप्रोपेगेशन द्वारा निकाले गए ग्रेडिएंट्स का उपयोग करके वज़नों को उस दिशा में अपडेट करता है जिससे लॉस फंक्शन न्यूनतम (Minima) हो सके ।

प्रश्न 38: डीप न्यूरल नेटवर्क (Deep Neural Networks) के लिए कौन सा 'सक्रियण फ़ंक्शन' (Activation Function) 'वेनिशिंग ग्रेडिएंट समस्या' (Vanishing Gradient Problem) से बचने के लिए सबसे उपयुक्त माना जाता है? (Which activation function is most suitable for deep neural networks to avoid vanishing gradient problems?) [PYQ]

  • (A) सिग्मॉइड (Sigmoid)
  • (B) सॉफ्टमैक्स (Softmax)
  • (C) टेन्ह (Tanh)
  • (D) रेलू (ReLU - Rectified Linear Unit)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (D) रेलू (ReLU - Rectified Linear Unit)

व्याख्या (Explanation): डीप न्यूरल नेटवर्क (DNN) के हिडन लेयर्स (Hidden Layers) में वेनिशिंग ग्रेडिएंट (Vanishing Gradient) समस्या से बचने के लिए ReLU (Rectified Linear Unit) सबसे उपयुक्त सक्रियण फ़ंक्शन (Activation Function) है । गणितीय रूप से इसे के रूप में परिभाषित किया जाता है । ReLU वेनिशिंग ग्रेडिएंट को रोकता है क्योंकि इसके 'पॉजिटिव इनपुट्स' के लिए एक स्थिर व्युत्पन्न (constant derivative) होता है (जो 1 है) । सिग्मॉइड (Sigmoid) और टैनएच (Tanh) के व्युत्पन्न बहुत छोटे हो जाते हैं (संतृप्त हो जाते हैं), जिससे ग्रेडिएंट्स तेज़ी से छोटे होकर 'वैनिश' (Vanish) हो जाते हैं । सॉफ्टमैक्स (Softmax) का उपयोग मुख्य रूप से मल्टी-क्लास क्लासिफिकेशन के लिए 'आउटपुट लेयर' (Output Layer) में किया जाता है ।


प्रश्न 39: कृत्रिम तंत्रिका नेटवर्क (Artificial Neural Networks - ANNs) में डेटा को प्रोसेस करने के लिए मुख्य रूप से कौन सी तीन परतें (Layers) शामिल होती हैं? (Which three layers are mainly involved in an Artificial Neural Network (ANN) for processing data?)

  • (A) इनपुट लेयर, स्टोरेज लेयर, आउटपुट लेयर (Input Layer, Storage Layer, Output Layer)
  • (B) फ्रंट लेयर, बैक लेयर, हिडन लेयर (Front Layer, Back Layer, Hidden Layer)
  • (C) इनपुट लेयर, हिडन लेयर, आउटपुट लेयर (Input Layer, Hidden Layer, Output Layer)
  • (D) डेटा लेयर, प्रोसेसिंग लेयर, रिजल्ट लेयर (Data Layer, Processing Layer, Result Layer)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (C) इनपुट लेयर, हिडन लेयर, आउटपुट लेयर (Input Layer, Hidden Layer, Output Layer)

व्याख्या (Explanation): एक Artificial Neural Network (ANN) की संरचना मुख्य रूप से तीन परतों (Layers) में विभाजित होती है:

  1. इनपुट लेयर (Input Layer): यह बाहरी दुनिया से डेटा को मॉडल में इनपुट करती है ।
  2. हिडन लेयर (Hidden Layer): इनपुट लेयर और आउटपुट लेयर के बीच स्थित यह परत डेटा के फीचर्स को प्रोसेस करती है। डीप लर्निंग में हिडन लेयर्स की संख्या बहुत अधिक होती है ।
  3. आउटपुट लेयर (Output Layer): यह नेटवर्क का अंतिम परिणाम या प्रेडिक्शन (prediction) देती है ।

प्रश्न 40: निम्नलिखित में से कौन सा एक 'डीप लर्निंग फ्रेमवर्क' (Deep Learning Framework) नहीं है, बल्कि मशीन लर्निंग मॉडल के लिए डेटा स्टोर करने वाला एक NoSQL डेटाबेस है? (Which of the following is NOT a 'Deep Learning Framework', but a NoSQL database for storing data for machine learning models?)

  • (A) मोंगोडीबी (MongoDB)
  • (B) पायटॉर्च (PyTorch)
  • (C) केरास (Keras)
  • (D) जेएएक्स (JAX)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (A) मोंगोडीबी (MongoDB)

व्याख्या (Explanation): मोंगोडीबी (MongoDB) एक NoSQL डेटाबेस है। इसका उपयोग डेटा को स्टोर (Storage) करने और पुनर्प्राप्त (Retrieval) करने के लिए किया जाता है, न कि मशीन लर्निंग या डीप लर्निंग मॉडल बनाने के लिए । दूसरी ओर, PyTorch, Keras, और JAX तीनों प्रसिद्ध डीप लर्निंग फ्रेमवर्क (Deep Learning Frameworks) हैं । PyTorch को Facebook की AI रिसर्च लैब द्वारा विकसित किया गया है । Keras एक हाई-लेवल API है , और JAX को Google द्वारा विकसित किया गया है ।


प्रश्न 41: मशीन लर्निंग में उपयोग की जाने वाली उस एन्सेम्बल लर्निंग तकनीक (Ensemble learning technique) को क्या कहा जाता है, जिसमें अंतिम भविष्यवाणी (final prediction) प्राप्त करने के लिए 'बेस मॉडल' (Level-0 मॉडल) की भविष्यवाणियों को संयोजित करने के लिए एक अलग 'मेटा-मॉडल' (Level-1 मॉडल) को प्रशिक्षित किया जाता है? (In Machine Learning, what is the ensemble learning technique called in which a separate 'meta-model' (Level-1 model) is trained to combine the predictions of 'base models' (Level-0 models) to achieve the final prediction?) [PYQ]

  • (A) वोटिंग क्लासिफायर (Voting Classifier)
  • (B) रैंडम फ़ॉरेस्ट बैगिंग (Random Forest Bagging)
  • (C) एडूबूस्ट बूस्टिंग (AdaBoost Boosting)
  • (D) स्टैकिंग (Stacking / Stacked Generalization)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (D) स्टैकिंग (Stacking / Stacked Generalization)

व्याख्या (Explanation): स्टैकिंग (Stacking), जिसे स्टैक्ड जनरलाइज़ेशन (Stacked Generalization) भी कहा जाता है, एक एन्सेम्बल लर्निंग तकनीक है। इसमें अंतिम परिणाम प्राप्त करने के लिए कई विभिन्न प्रकार के मशीन लर्निंग मॉडल (जिन्हें बेस मॉडल या लेवल-0 मॉडल कहा जाता है) के आउटपुट को संयोजित किया जाता है। इसकी सबसे बड़ी विशेषता यह है कि यह एक 'मेटा-मॉडल' (Level-1 model) का उपयोग करता है, जो बेस मॉडल द्वारा की गई भविष्यवाणियों (predictions) पर प्रशिक्षित (train) होता है। मेटा-मॉडल यह सीखता है कि बेस मॉडल की भविष्यवाणियों को सबसे अच्छे तरीके से कैसे संयोजित किया जाए। (नोट: UPSSSC के पिछले वर्ष के प्रश्न में 'वोटिंग', 'रैंडम फॉरेस्ट' और 'एडूबूस्ट' को स्टैकिंग के विकल्पों के रूप में दिया गया था, जबकि तकनीकी रूप से वे क्रमशः एन्सेम्बल, बैगिंग और बूस्टिंग के उदाहरण हैं, स्टैकिंग के नहीं।)


प्रश्न 42: नीचे दो कथन दिए गए हैं, एक को अभिकथन (Assertion - A) और दूसरे को कारण (Reason - R) के रूप में लेबल किया गया है। सही विकल्प का चयन करें। (Below are two statements, one labeled as Assertion (A) and the other as Reason (R). Select the correct option.) अभिकथन (A): डीप लर्निंग एल्गोरिदम छवि पहचान के लिए उपयोगी हैं। (Assertion (A): Deep Learning algorithms are useful for image recognition.) कारण (R): वे पिक्सेल डेटा का विश्लेषण करने के लिए उथले निर्णय वृक्षों का उपयोग करते हैं। (Reason (R): They use shallow decision trees to analyze pixel data.) [PYQ]

  • (A) A और R दोनों सत्य हैं, और R, A की सही व्याख्या है। (Both A and R are true, and R is the correct explanation of A.)
  • (B) A और R दोनों सत्य हैं, लेकिन R, A की सही व्याख्या नहीं है। (Both A and R are true, but R is not the correct explanation of A.)
  • (C) A सत्य है, लेकिन R असत्य है। (A is true, but R is false.)
  • (D) A असत्य है, लेकिन R सत्य है। (A is false, but R is true.)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (C) A सत्य है, लेकिन R असत्य है। (A is true, but R is false.)

व्याख्या (Explanation): दिया गया अभिकथन (A) बिल्कुल सत्य है। डीप लर्निंग (Deep Learning) एल्गोरिदम, विशेष रूप से CNNs (Convolutional Neural Networks), छवि पहचान (Image recognition) और कंप्यूटर विज़न के लिए अत्यधिक उपयोगी और सटीक होते हैं। हालाँकि, कारण (R) पूरी तरह से असत्य है। डीप लर्निंग पिक्सेल डेटा का विश्लेषण करने के लिए 'उथले निर्णय वृक्षों' (shallow decision trees) का उपयोग नहीं करती है। इसके बजाय, यह कई परतों (Hidden Layers) वाले 'गहरे कृत्रिम तंत्रिका नेटवर्क' (Deep Artificial Neural Networks) का उपयोग करती है जो डेटा के हियरार्कल (hierarchical) प्रतिनिधित्व को सीखते हैं। उथले निर्णय वृक्ष (Decision trees) पारंपरिक मशीन लर्निंग का हिस्सा हैं, डीप लर्निंग का नहीं।


प्रश्न 43: निम्नलिखित AI और मशीन लर्निंग उपकरणों (Tools/Libraries) को उनके मुख्य उपयोगों के साथ सुमेलित करें: (Match the following AI and Machine Learning tools/libraries with their main uses:)

सूची I (AI Tools) सूची II (Main Uses)
1. टेन्सरफ्लो (TensorFlow) A. डेटा मैनिपुलेशन (Data Manipulation)
2. स्किकिट-लर्न (Scikit-learn) B. कंप्यूटर विज़न (Computer Vision)
3. ओपेनसीवी (OpenCV) C. मशीन लर्निंग (Machine Learning)
4. पांडास (Pandas) D. न्यूरल नेटवर्क (Neural Networks)

  • (A) 1-D, 2-C, 3-B, 4-A
  • (B) 1-B, 2-C, 3-A, 4-D
  • (C) 1-D, 2-A, 3-B, 4-C
  • (D) 1-A, 2-B, 3-C, 4-D
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (A) 1-D, 2-C, 3-B, 4-A

व्याख्या (Explanation): पाइथन (Python) पर आधारित इन प्रमुख टूल्स का सही मिलान इस प्रकार है:

  • TensorFlow: Google द्वारा विकसित यह ओपन-सोर्स लाइब्रेरी मुख्य रूप से 'न्यूरल नेटवर्क' (Neural Networks) और डीप लर्निंग के लिए उपयोग की जाती है।
  • Scikit-learn: यह विभिन्न प्रकार के 'मशीन लर्निंग' (Machine Learning) एल्गोरिदम (जैसे वर्गीकरण, रिग्रेशन, क्लस्टरिंग) के लिए एक लोकप्रिय लाइब्रेरी है।
  • OpenCV: यह मुख्य रूप से 'कंप्यूटर विज़न' (Computer Vision) कार्यों जैसे इमेज प्रोसेसिंग, फेस डिटेक्शन और ऑब्जेक्ट रिकग्निशन के लिए डिज़ाइन की गई है।
  • Pandas: यह टेबुलर डेटा (tabular data) के साथ काम करने, डेटा विश्लेषण और 'डेटा मैनिपुलेशन' (Data Manipulation) के लिए उपयोग की जाने वाली सॉफ्टवेयर लाइब्रेरी है।

प्रश्न 44: मशीन लर्निंग और डीप लर्निंग मॉडल में उस स्थिति को क्या कहा जाता है जब मॉडल इतना सरल होता है कि वह ट्रेनिंग डेटा (Training Data) के महत्वपूर्ण पैटर्न (Patterns) को सीख नहीं पाता और न तो ट्रेनिंग डेटा पर और न ही टेस्ट डेटा पर अच्छा प्रदर्शन कर पाता है? (In Machine Learning and Deep Learning models, what is the condition called when the model is so simple that it fails to learn the important patterns of the Training Data and performs poorly on both training and test data?)

  • (A) ओवरफिटिंग (Overfitting)
  • (B) वैनिशिंग ग्रेडिएंट्स (Vanishing Gradients)
  • (C) अंडरफिटिंग (Underfitting)
  • (D) एक्सप्लोडिंग ग्रेडिएंट्स (Exploding Gradients)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (C) अंडरफिटिंग (Underfitting)

व्याख्या (Explanation): जब मॉडल बहुत अधिक सरल (Simple) होता है और वह डेटा में छिपे हुए पैटर्न को पकड़ (capture) नहीं पाता, तो इस स्थिति को 'अंडरफिटिंग' (Underfitting) कहा जाता है। इसका मतलब है कि मॉडल 'उच्च पूर्वाग्रह' (High bias) वाला हो जाता है। इसके समाधान के लिए मॉडल की जटिलता (complexity) को बढ़ाया जाता है (जैसे अधिक लेयर्स या नोड्स जोड़ना), फीचर इंजीनियरिंग (Feature Engineering) की जाती है, या रेग्युलराइजेशन (Regularization) को कम किया जाता है। इसके विपरीत, जब मॉडल ट्रेनिंग डेटा के शोर (noise) को भी सीख लेता है, तो उसे 'ओवरफिटिंग' (Overfitting) कहते हैं।


प्रश्न 45: डीप न्यूरल नेटवर्क्स (DNN) और रीकुरेंट न्यूरल नेटवर्क्स (RNNs) में प्रशिक्षण प्रक्रिया के दौरान "एक्सप्लोडिंग ग्रेडिएंट्स" (Exploding Gradients) की समस्या को हल करने के लिए निम्नलिखित में से किस तकनीक का उपयोग किया जाता है? (Which of the following techniques is used to solve the problem of "Exploding Gradients" during the training process in Deep Neural Networks (DNN) and Recurrent Neural Networks (RNNs)?)

  • (A) केवल 'Dropout' तकनीक का अत्यधिक उपयोग करना (Excessive use of only 'Dropout' technique)
  • (B) ग्रेडिएंट क्लिपिंग और सही वेट इनिशियलाइज़ेशन (Gradient Clipping and Proper Weight Initialization)
  • (C) लर्निंग रेट (Learning Rate) को अत्यधिक बढ़ा देना (Increasing the Learning Rate excessively)
  • (D) हिडन लेयर्स की संख्या को अनियंत्रित रूप से बढ़ाना (Increasing the number of hidden layers uncontrollably)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (B) ग्रेडिएंट क्लिपिंग और सही वेट इनिशियलाइज़ेशन (Gradient Clipping and Proper Weight Initialization)

व्याख्या (Explanation): 'एक्सप्लोडिंग ग्रेडिएंट्स' (Exploding Gradients) वह स्थिति है जब बैकप्रोपेगेशन के दौरान ग्रेडिएंट्स अत्यधिक बड़े हो जाते हैं, जिससे वेट अपडेट्स अस्थिर (Unstable) हो जाते हैं और ट्रेनिंग विफल हो जाती है। इस गंभीर समस्या से बचने के लिए 'ग्रेडिएंट क्लिपिंग' (Gradient Clipping) का उपयोग किया जाता है, जिसमें ट्रेनिंग के दौरान ग्रेडिएंट्स को एक निर्धारित सीमा (Threshold) तक सीमित कर दिया जाता है। इसके अलावा, सही वेट इनिशियलाइज़ेशन (He या Xavier Initialization), रेसिडुअल कनेक्शन्स (Residual Connections), और लर्निंग रेट (Learning Rate) को कम करने जैसी तकनीकों का उपयोग किया जाता है।


प्रश्न 46: डीप लर्निंग (Deep Learning) में भारी और जटिल गणनाओं (computations) को तेज़ी से निष्पादित करने के लिए विशेष रूप से डिज़ाइन किए गए हार्डवेयर प्रोसेसर को क्या कहा जाता है? (What are the hardware processors specifically designed to quickly execute heavy and complex computations in Deep Learning called?)

  • (A) एएलयू (ALU - Arithmetic Logic Unit)
  • (B) एसएमपीएस (SMPS - Switched-Mode Power Supply)
  • (C) टीपीयू (TPU - Tensor Processing Unit)
  • (D) सीयू (CU - Control Unit)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (C) टीपीयू (TPU - Tensor Processing Unit)

व्याख्या (Explanation): डीप लर्निंग (Deep Learning) के न्यूरल नेटवर्क्स में लेयर-दर-लेयर मैट्रिक्स मल्टीप्लिकेशन (matrix multiplication) जैसी भारी गणनाओं की आवश्यकता होती है। इसे साधारण CPU पर चलाना बहुत धीमा होता है। इसलिए, गणना को तेज़ करने के लिए विशेष हार्डवेयर का उपयोग किया जाता है, जैसे:

  1. GPUs (Graphics Processing Units): जो एक साथ हजारों पैरेलल (समानांतर) गणनाएं कर सकते हैं।
  2. TPUs (Tensor Processing Units): ये Google द्वारा विशेष रूप से मशीन लर्निंग और डीप लर्निंग (TensorFlow) कार्यों को गति देने के लिए डिज़ाइन किए गए कस्टम ASIC (Application-Specific Integrated Circuit) प्रोसेसर हैं।

प्रश्न 47: 'रेकुरेंट न्यूरल नेटवर्क्स' (RNNs) में पुराने अनुक्रमिक डेटा (Past sequential data) को भूल जाने की समस्या को "वैनिशिंग ग्रेडिएंट" (Vanishing Gradient) कहा जाता है। इस मुख्य समस्या को हल करने के लिए किस उन्नत RNN आर्किटेक्चर का उपयोग किया जाता है? (In 'Recurrent Neural Networks' (RNNs), the problem of forgetting past sequential data is called "Vanishing Gradient". Which advanced RNN architecture is used to solve this main problem?)

  • (A) सीएनएन (CNN - Convolutional Neural Networks)
  • (B) एलएसटीएम (LSTM - Long Short-Term Memory)
  • (C) ऑटोएन्कोडर्स (Autoencoders)
  • (D) डीबीएन (DBN - Deep Belief Networks)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (B) एलएसटीएम (LSTM - Long Short-Term Memory)

व्याख्या (Explanation): रेकुरेंट न्यूरल नेटवर्क्स (RNNs) समय श्रृंखला (Time Series) और अनुक्रमिक डेटा के लिए बेहतरीन हैं, लेकिन इनकी सबसे बड़ी खामी 'वैनिशिंग ग्रेडिएंट' (Vanishing Gradient) है, जिसके कारण ये पुरानी जानकारी (Long term memory) को भूल जाते हैं। इस समस्या को दूर करने के लिए 'LSTM' (Long Short-Term Memory) और 'GRU' (Gated Recurrent Unit) का विकास किया गया। LSTM एक विशेष प्रकार का RNN है, जो लंबे समय तक सीक्वेंशियल डेटा को याद रखने के लिए अपनी 'मेमोरी सेल' (Memory cell) और 'गेटिंग मैकेनिज्म' (Gating mechanism) का उपयोग करता है। CNN इमेज के लिए उपयोग होता है, जबकि ऑटोएन्कोडर्स अनसुपरवाइज्ड डाइमेंशन रिडक्शन के लिए।


प्रश्न 48: कृत्रिम बुद्धिमत्ता और डीप लर्निंग के इतिहास में, 1986 में "बैकप्रोपेगेशन" (Backpropagation) एल्गोरिदम को विकसित करने में किस प्रमुख शोधकर्ता का महत्वपूर्ण योगदान था, जिसे न्यूरल नेटवर्क्स को प्रशिक्षित (Train) करने की एक प्रभावी विधि माना जाता है? (In the history of Artificial Intelligence and Deep Learning, which key researcher had a significant contribution in developing the "Backpropagation" algorithm in 1986, which is considered an effective method for training neural networks?)

  • (A) ज्योफ्री हिंटन (Geoffrey Hinton)
  • (B) एलन ट्यूरिंग (Alan Turing)
  • (C) जॉन मैकार्थी (John McCarthy)
  • (D) आर्थर सैमुअल (Arthur Samuel)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (A) ज्योफ्री हिंटन (Geoffrey Hinton)

व्याख्या (Explanation): 1986 में ज्योफ्री हिंटन (Geoffrey Hinton), डेविड रुमेलहार्ट (David Rumelhart), और रोनाल्ड विलियम्स (Ronald Williams) ने बैकप्रोपेगेशन (Backpropagation) एल्गोरिदम को विकसित किया था। यह सुपरवाइज्ड लर्निंग एल्गोरिदम है जिसका उपयोग 'फीडफॉरवर्ड न्यूरल नेटवर्क्स' (feedforward neural networks) को ट्रेन करने के लिए किया जाता है। यह एल्गोरिदम नेटवर्क के वज़नों (weights) को आउटपुट 'त्रुटि' (Error) के आधार पर पीछे की दिशा (backward direction) में समायोजित करता है। इसी अभूतपूर्व योगदान के कारण ज्योफ्री हिंटन को "गॉडफादर ऑफ AI & डीप लर्निंग" कहा जाता है।


प्रश्न 49: डीप लर्निंग (Deep Learning) के "उभरते हुए विषयों" (Emerging Topics) के संदर्भ में, निम्नलिखित में से कौन सा शब्द (Term) मशीन लर्निंग और डीप लर्निंग मॉडलों को अधिक पर्यावरण-अनुकूल बनाने और उनकी 'ऊर्जा दक्षता' (Energy Efficiency) को बढ़ाने की अवधारणा को संदर्भित करता है? (In the context of "Emerging Topics" of Deep Learning, which of the following terms refers to the concept of making machine learning and deep learning models more environmentally friendly and increasing their 'Energy Efficiency'?)

  • (A) फ्यू-शॉट लर्निंग (Few-shot Learning)
  • (B) ग्रीन एआई (Green AI)
  • (C) एक्सप्लेंनेबल एआई (Explainable AI - XAI)
  • (D) न्यूरल आर्किटेक्चर सर्च (Neural Architecture Search - NAS)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (B) ग्रीन एआई (Green AI)

व्याख्या (Explanation): पीडीएफ नोट्स के अंतिम अनुभाग के अनुसार, "ग्रीन एआई" (Green AI) डीप लर्निंग का एक उभरता हुआ और महत्वपूर्ण विषय है। डीप लर्निंग मॉडल (विशेष रूप से LLMs जैसे ChatGPT) को प्रशिक्षित करने में भारी मात्रा में कम्प्यूटेशनल पावर और बिजली की खपत होती है, जिससे कार्बन फुटप्रिंट बढ़ता है। 'ग्रीन एआई' (Green AI) का मुख्य उद्देश्य डीप लर्निंग एल्गोरिदम में 'ऊर्जा दक्षता' (Energy Efficiency) को बढ़ावा देना है, ताकि कम संसाधनों और कम ऊर्जा की खपत के साथ बेहतरीन एआई मॉडल विकसित किए जा सकें।


प्रश्न 50: कृत्रिम बुद्धिमत्ता (AI), मशीन लर्निंग (ML), और डीप लर्निंग (DL) के बीच के संबंध को परिभाषित करने वाला सबसे सटीक कथन कौन सा है? (Which is the most accurate statement defining the relationship between Artificial Intelligence (AI), Machine Learning (ML), and Deep Learning (DL)?)

  • (A) डीप लर्निंग (DL) सबसे व्यापक क्षेत्र है, जिसके भीतर AI और ML दोनों एक छोटे से हिस्से के रूप में काम करते हैं। (Deep Learning (DL) is the broadest field, within which both AI and ML function as a small subset.)
  • (B) AI, ML, और DL तीनों एक ही तकनीक के अलग-अलग नाम हैं और इनमें कोई अंतर नहीं है। (AI, ML, and DL are all different names for the same technology and there is no difference between them.)
  • (C) मशीन लर्निंग (ML) कृत्रिम बुद्धिमत्ता (AI) का एक उपक्षेत्र (Subset) है, और डीप लर्निंग (DL) मशीन लर्निंग का एक उपक्षेत्र है जो कई हियरार्कल लेयर्स (Hierarchical layers) वाले न्यूरल नेटवर्क्स का उपयोग करता है। (Machine Learning (ML) is a subset of Artificial Intelligence (AI), and Deep Learning (DL) is a subset of Machine Learning that uses neural networks with multiple hierarchical layers.)
  • (D) AI केवल हार्डवेयर है, जबकि ML और DL पूरी तरह से सॉफ्टवेयर हैं जो बिना डेटा के काम करते हैं। (AI is only hardware, while ML and DL are entirely software that work without data.)
  • (E) इनमें से कोई नहीं (None of the above)

सही उत्तर (Correct Answer): (C) मशीन लर्निंग (ML) कृत्रिम बुद्धिमत्ता (AI) का एक उपक्षेत्र (Subset) है, और डीप लर्निंग (DL) मशीन लर्निंग का एक उपक्षेत्र है जो कई हियरार्कल लेयर्स (Hierarchical layers) वाले न्यूरल नेटवर्क्स का उपयोग करता है। (Machine Learning (ML) is a subset of Artificial Intelligence (AI), and Deep Learning (DL) is a subset of Machine Learning that uses neural networks with multiple hierarchical layers.)

व्याख्या (Explanation): AI, ML और DL के बीच स्पष्ट पदानुक्रम (Hierarchy) मौजूद है:

  1. कृत्रिम बुद्धिमत्ता (AI): यह सबसे बड़ा और विस्तृत क्षेत्र है, जिसका उद्देश्य मशीनों को मानव बुद्धिमत्ता की तर्ज पर सोचने और निर्णय लेने की क्षमता देना है।
  2. मशीन लर्निंग (ML): यह AI का एक 'उपक्षेत्र' (Subset) है, जो सांख्यिकीय विधियों (statistical methods) और एल्गोरिदम का उपयोग करके मशीनों को अनुभव (डेटा) के माध्यम से सीखने की क्षमता देता है।
  3. डीप लर्निंग (DL): यह मशीन लर्निंग का एक 'उपक्षेत्र' (Subset) है। यह इंसान के दिमाग की संरचना से प्रेरित होकर 'डीप न्यूरल नेटवर्क्स' (कई हिडन लेयर्स) का उपयोग करता है और बिना स्पष्ट रूप से फीचर इंजीनियरिंग किए बड़े डेटा से जटिल पैटर्न सीखता है ।

A high-precision digital infographic diagram of a complex Artificial Neural Network (ANN) used in Deep Learning. It shows multiple hierarchical layers, clearly separating and labeling the 'Input Layer', multiple 'Hidden Layers', and 'Output Layer'. Each layer contains connected node circles (representing neurons) with glowing lines illustrating information flow and backpropagation paths. Arrows indicate 'Feature Extraction' happening across the deep hidden layers. The overall style is modern and digital, using blue and cyan color gradients, with labels in clean white text, on a black background to simulate a high-tech data environment.

UPSSSC Lekhpal: AI, ML, & DL Bonus Facts (One-liners)

आगामी UPSSSC Latest Exams और विशेष रूप से UPSSSC लेखपाल 2026 के लिए, यहाँ UPSSSC Advanced Computer Topics का संपूर्ण निचोड़ (X-ray) प्रस्तुत है। इन 25 सघन (Dense) 'वन-लाइनर फैक्ट्स' में हमने Artificial Intelligence based Computer Questions, Machine Learning, और Deep Learning के उन सभी महत्वपूर्ण तथ्यों को पिरो दिया है जो ऊपर के 50 प्रश्नों में छूट गए थे। ये UPSSSC Computer Questions एक मास्टरस्ट्रोक साबित होंगे!


  1. 1950 में एलन ट्यूरिंग द्वारा प्रस्तावित ट्यूरिंग टेस्ट (Turing Test) का उद्देश्य मशीन की बुद्धि का आकलन करना था, जबकि 1955 में Carnegie Mellon University में पहला AI प्रोग्राम प्रदर्शित किया गया और 1960 में पहला रोबोट 'Unimate' जनरल मोटर्स में पेश किया गया।
  2. जॉन मैकार्थी द्वारा 1958 में विकसित LISP प्रोग्रामिंग भाषा प्रतीकात्मक AI (Symbolic AI) के लिए ऐतिहासिक रूप से प्रसिद्ध है, जबकि लॉजिक प्रोग्रामिंग और प्राकृतिक भाषा प्रसंस्करण (NLP) के लिए 'Prolog' का व्यापक रूप से उपयोग किया जाता है।
  3. 1970 के दशक में स्टैनफोर्ड यूनिवर्सिटी द्वारा विकसित MYCIN एक प्रारंभिक विशेषज्ञ प्रणाली (Expert System) थी, जिसका उपयोग चिकित्सा निदान (Medical diagnosis) में होता था और यह ज्ञान के आधार (Knowledge base) तथा अनुमान इंजन (Inference engine) पर काम करती थी।
  4. कृत्रिम बुद्धिमत्ता (AI) में जब एक आदर्श और सटीक समाधान खोजना बहुत धीमा या असंभव होता है, तब समस्या को जल्दी सुलझाने के लिए एक अनुमानित और त्वरित दृष्टिकोण के रूप में Heuristics का उपयोग किया जाता है, जो 'A* (A-Star)' जैसे सर्च एल्गोरिदम का मुख्य आधार है।
  5. केवल वर्तमान परिदृश्यों पर प्रतिक्रिया देने वाली 'रिएक्टिव मशीनें' (जैसे शतरंज खेलने वाला IBM का डीप ब्लू) AI का सबसे सरल रूप हैं, जबकि भविष्य के बेहतर निर्णयों के लिए पुरानी जानकारी को कुछ समय तक संग्रहीत करने वाली सेल्फ-ड्राइविंग कारें Limited Memory AI का एक उत्कृष्ट उदाहरण हैं।
  6. 2014 में अमेज़न द्वारा इको (Echo) स्मार्ट स्पीकर के लिए 'Alexa' और माइक्रोसॉफ्ट द्वारा Cortana को पेश किया गया था, जो कि दोनों ही नैरो या 'Weak AI' के उत्कृष्ट उदाहरण हैं और हमारे निर्देशों को समझने के लिए प्राकृतिक भाषा प्रसंस्करण (NLP) का उपयोग करते हैं।
  7. 1964-66 के बीच MIT में जोसेफ वेइज़ेनबाम द्वारा पैटर्न मिलान (Pattern matching) का उपयोग करके निर्मित ELIZA को पहला AI चैटबॉट माना जाता है, जबकि 2016 में हैंसन रोबोटिक्स द्वारा निर्मित 'Sophia' सऊदी अरब की नागरिकता पाने वाला पहला एनिमेट्रॉनिक ह्यूमनॉइड रोबोट है।
  8. 1959 में IBM के शोधकर्ता Arthur Samuel द्वारा गढ़ा गया 'मशीन लर्निंग' शब्द, कंप्यूटरों को स्पष्ट रूप से प्रोग्राम किए बिना भारी डेटा से सीखने की क्षमता देता है, जिसमें डेटा प्रीप्रोसेसिंग (सफाई) और फीचर इंजीनियरिंग सबसे महत्वपूर्ण प्रारंभिक चरण माने जाते हैं।
  9. वह मशीन लर्निंग तकनीक जिसमें मॉडल को 'लेबल किए गए डेटा' (Labelled training data) पर प्रशिक्षित किया जाता है और जिसका प्राथमिक उपयोग डेटा को वर्गों में बाँटने (Classification) या निरंतर मानों की भविष्यवाणी (Regression) करने के लिए किया जाता है, उसे Supervised Learning कहा जाता है।
  10. जब ट्रेनिंग डेटा पूरी तरह से बिना लेबल वाला (Unlabelled) होता है, तो मॉडल स्वयं डेटा की आंतरिक संरचना और उसमें छिपे पैटर्न या समानता खोजने के लिए Clustering (जैसे K-Means एल्गोरिदम) और 'एसोसिएशन रूल माइनिंग' (जैसे Apriori) जैसी तकनीकों का उपयोग करता है।
  11. 'सपोर्ट वेक्टर मशीन' (SVM) एक शक्तिशाली सुपरवाइज्ड एल्गोरिदम है जो डेटा को विभाजित करने के लिए स्पष्ट 'हाइपरप्लेन' (Hyperplane) का उपयोग करता है, जबकि K-Nearest Neighbors (KNN) को एक 'लेज़ी लर्नर' (Lazy Learner) कहा जाता है क्योंकि इसमें ट्रेनिंग डेटा का उपयोग करके कोई अलग प्रारंभिक प्रशिक्षण चरण (Training step) नहीं होता।
  12. डेटा को विभिन्न शर्तों के आधार पर ट्री-जैसी शाखाओं (Branches) में विभाजित करके निर्णय लेने वाले 'डिसीजन ट्रीज़' (Decision Trees) जब एक साथ कई पेड़ों के संग्रह (Ensemble) के रूप में संयोजित होकर अधिक सटीक और स्थिर भविष्यवाणी करते हैं, तो उस तकनीक को Random Forest कहा जाता है।
  13. मशीन लर्निंग के जिस विशिष्ट प्रकार में एक 'एजेंट' (Agent) ट्रायल और एरर के माध्यम से किसी पर्यावरण (Environment) में कार्य करता है और अपने हर सही या गलत कदम के लिए Rewards (पुरस्कार या दंड) प्राप्त करके अपनी नीतियों को अनुकूलित करता है, उसे 'रीइन्फोर्समेंट लर्निंग' (RL) कहते हैं।
  14. 1958 में फ्रैंक रोसेनब्लैट द्वारा विकसित Perceptron एक एकल-परत (Single-layer) कृत्रिम न्यूरॉन नेटवर्क है, जिसे मानव मस्तिष्क के बायोलॉजिकल न्यूरॉन से प्रेरित होकर बनाया गया था और इसे आधुनिक डीप लर्निंग की सबसे बुनियादी नींव माना जाता है।
  15. एक कृत्रिम तंत्रिका नेटवर्क (ANN) के आर्किटेक्चर में बाहरी दुनिया से डेटा प्राप्त करने वाली 'इनपुट लेयर' और अंतिम परिणाम देने वाली 'आउटपुट लेयर' के बीच मौजूद वह परत जो सभी जटिल फीचर निष्कर्षण (Feature extraction) और गणितीय गणनाओं को संभालती है, उसे Hidden Layer कहा जाता है।
  16. 1990 के दशक में यान लेकुन द्वारा विकसित CNN (Convolutional Neural Networks) एक विशेष प्रकार का डीप न्यूरल नेटवर्क है, जिसे मुख्य रूप से पिक्सेल और स्थानिक डेटा (Spatial data) को प्रोसेस करने के लिए डिज़ाइन किया गया है और इसने कंप्यूटर विज़न, इमेज प्रोसेसिंग तथा फेशियल रिकग्निशन में क्रांति ला दी है।
  17. समय श्रृंखला (Time Series), स्टॉक मार्केट डेटा और प्राकृतिक भाषा जैसे अनुक्रमिक डेटा (Sequential Data) को प्रोसेस करने के लिए 'रेकुरेंट न्यूरल नेटवर्क्स' (RNNs) का उपयोग होता है, जिसमें पुरानी यादों को भूलने वाली 'वैनिशिंग ग्रेडिएंट' की समस्या को हल करने के लिए LSTM (Long Short-Term Memory) आर्किटेक्चर का प्रयोग किया जाता है।
  18. 2017 में Google के शोधकर्ताओं द्वारा पेश किया गया Transformer आर्किटेक्चर 'सेल्फ-अटेंशन' (Self-attention) तंत्र पर आधारित है, जिसने बिना अनुक्रमिक (Non-sequential) प्रोसेसिंग के BERT, GPT-3, और ChatGPT जैसे लार्ज लैंग्वेज मॉडल्स (LLMs) को जन्म देकर प्राकृतिक भाषा प्रसंस्करण (NLP) में अभूतपूर्व सफलता प्राप्त की है।
  19. डीप लर्निंग (Deep Learning) के न्यूरल नेटवर्क्स में भारी मैट्रिक्स गुणा (Matrix multiplication) और लाखों-करोड़ों समानांतर गणनाओं को सुपर-फास्ट गति से निष्पादित करने के लिए ग्राफिक्स कार्ड (GPUs) और Google द्वारा विशेष रूप से डिज़ाइन किए गए TPU (Tensor Processing Unit) जैसे समर्पित हार्डवेयर का उपयोग किया जाता है।
  20. इयान गुडफेलो द्वारा 2014 में पेश किए गए GAN (Generative Adversarial Networks) में एक 'जेनरेटर' और एक 'डिस्क्रिमिनेटर' मॉडल होता है, जो एक-दूसरे के साथ प्रतिस्पर्धा करके कृत्रिम रूप से सिंथेटिक डेटा, बेहद यथार्थवादी छवियां और यहाँ तक कि डीपफेक (Deepfakes) बनाने में माहिर होते हैं।
  21. 1986 में ज्योफ्री हिंटन और उनके सहयोगियों द्वारा विकसित Backpropagation एल्गोरिदम एक अत्यंत प्रभावी गणितीय विधि है, जो न्यूरल नेटवर्क्स को प्रशिक्षित करते समय 'चेन रूल' (Chain Rule) का उपयोग करके आउटपुट त्रुटि (Error) के आधार पर नेटवर्क के 'वेट्स' (Weights) को पीछे की दिशा में समायोजित करती है।
  22. डीप न्यूरल नेटवर्क्स को जटिल पैटर्न सीखने में सक्षम बनाने के लिए नॉन-लीनियरिटी (Non-linearity) जोड़ने हेतु 'एक्टिवेशन फंक्शन' का उपयोग होता है, जिसमें वैनिशिंग ग्रेडिएंट समस्या से बचने के लिए सबसे लोकप्रिय फंक्शन ReLU (Rectified Linear Unit) है, जबकि मल्टी-क्लास क्लासिफिकेशन में अंतिम आउटपुट के लिए सॉफ्टमैक्स का उपयोग होता है।
  23. मशीन लर्निंग में मॉडल बनाने के लिए पायथन (Python) में टेन्सरफ्लो (TensorFlow) और पायटॉर्च (PyTorch) जैसे फ्रेमवर्क का उपयोग किया जाता है, जबकि डेटा को मैनिपुलेट करने के लिए पांडास (Pandas) और मानव भाषा के टेक्स्ट डेटा को विशेष रूप से प्रोसेस करने के लिए NLTK (Natural Language Toolkit) लाइब्रेरी का उपयोग होता है।
  24. मॉडल प्रशिक्षण (Model Training) के दौरान जब मशीन लर्निंग मॉडल ट्रेनिंग डेटा के पैटर्न के साथ-साथ उसके 'शोर' (Noise) को भी रट लेता है तो वह 'ओवरफिटिंग' का शिकार होता है, लेकिन जब मॉडल इतना सरल हो कि वह डेटा के महत्वपूर्ण पैटर्न को ही न पकड़ पाए तो उस स्थिति को Underfitting कहते हैं।
  25. आधुनिक AI के उभरते विषयों में, मॉडल के निर्णयों को 'ब्लैक-बॉक्स' से निकालकर मनुष्यों के लिए पारदर्शी और समझने योग्य बनाने की तकनीक को Explainable AI (XAI) कहा जाता है, जबकि AI मॉडलों की ऊर्जा दक्षता (Energy Efficiency) बढ़ाकर कार्बन फुटप्रिंट कम करने की अवधारणा को 'ग्रीन एआई' (Green AI) कहा जाता है।

UPSSSC Lekhpal: आज का निष्कर्ष (Concluion)

इन 50 बेहतरीन प्रश्नों और 25 बोनस वन-लाइनर फैक्ट्स के साथ, अब AI, ML, और DL जैसे एडवांस कंप्यूटर टॉपिक्स पूरी तरह से आपकी मुट्ठी में हैं। यह लिमिटेड और टू-द-पॉइंट कंटेंट आपको परीक्षा हॉल में दूसरों से कई कदम आगे रखेगा। अब आपको किसी भी भारी किताब या जटिल थ्योरी से घबराने की बिल्कुल भी जरूरत नहीं है, क्योंकि आपने सबसे सटीक और 'क्रीम' कंटेंट की प्रैक्टिस कर ली है। आपका कीमती समय बच चुका है। तो अब अपनी तैयारी की इस रफ्तार को रुकने न दें! इस शानदार Artificial Intelligence PDF Notes को अभी Download करें। अगर इस पोस्ट ने आपका कॉन्फिडेंस बढ़ाया है, तो इसे अपने साथी एग्जाम वॉरियर्स के साथ Share करें और Comment बॉक्स में बताएं कि आपको यह पोस्ट कैसी लगी!

UPSSSC लेखपाल: AI, ML और DL PDF डाउनलोड करें

UPSSSC लेखपाल 2026 परीक्षा के लिए इन टॉप 50 संभावित प्रश्नों और बोनस वन-लाइनर फैक्ट्स को PDF फॉर्मेट में डाउनलोड करें और अपनी तैयारी को मजबूत बनाएं।

नोट: बटन पर क्लिक करने के बाद, प्रिन्टर डेस्टिनेशन में 'Save as PDF' विकल्प चुनें और इसे अपने फोल्डर में सुरक्षित (Save) करें।


अक्सर पूछे जाने वाले प्रश्न (FAQs)

UPSSSC लेखपाल 2026 परीक्षा में कंप्यूटर सेक्शन से कितने प्रश्न AI और ML से पूछे जा सकते हैं?

नवीनतम सिलेबस और UPSSSC के हालिया ट्रेंड के अनुसार, एडवांस कंप्यूटर टॉपिक्स (AI, ML, Deep Learning) से 2 से 4 प्रश्न सीधे तौर पर पूछे जाने की प्रबल संभावना है। यह स्कोर आपको मेरिट में ऊपर लाने के लिए बहुत महत्वपूर्ण है।

क्या AI और मशीन लर्निंग के प्रश्नों को हल करने के लिए कोडिंग का ज्ञान होना जरूरी है?

बिल्कुल नहीं! UPSSSC जैसी प्रतियोगी परीक्षाओं के लिए आपको किसी भी कोडिंग या प्रोग्रामिंग भाषा को सीखने की आवश्यकता नहीं है। आपको केवल बुनियादी अवधारणाओं, महत्वपूर्ण जनकों के नाम, एल्गोरिदम के प्रकार और उनके व्यावहारिक उपयोगों (Applications) के बारे में जानना है।

क्या ये 50 प्रश्न और 25 वन-लाइनर UPSSSC VDO और Junior Assistant के लिए भी उपयोगी हैं?

जी हाँ, 100% उपयोगी हैं। UPSSSC अब अपने लगभग सभी आगामी एग्जाम्स (जैसे VDO, Junior Assistant, Computer Operator) में कंप्यूटर के एडवांस टॉपिक्स पूछ रहा है। इसलिए यह कंटेंट आयोग की सभी परीक्षाओं के लिए एक 'रामबाण' है।

मशीन लर्निंग में सुपरवाइज्ड और अनसुपरवाइज्ड लर्निंग के बीच मुख्य अंतर क्या है?

सुपरवाइज्ड लर्निंग में कंप्यूटर मॉडल को 'लेबल किए गए डेटा' (Labelled Data) पर प्रशिक्षित किया जाता है (जैसे स्पैम ईमेल की पहचान)। जबकि अनसुपरवाइज्ड लर्निंग में मॉडल बिना किसी पूर्व जानकारी के 'बिना लेबल वाले डेटा' (Unlabelled Data) से स्वयं पैटर्न और समानताएं खोजता है (जैसे ग्राहकों को समूहों में बांटना)।

मैं UPSSSC परीक्षा के लिए AI, ML और DL के संपूर्ण PDF नोट्स कैसे प्राप्त कर सकता हूँ?

आप इसी पोस्ट के अंत में दिए गए 'PDF Download' बटन या हमारे आधिकारिक टेलीग्राम चैनल के लिंक पर क्लिक करके, हमारे द्वारा हाथों से तैयार किए गए ये बेहतरीन और संपूर्ण PDF नोट्स आसानी से प्राप्त कर सकते हैं।

एक टिप्पणी भेजें

और नया पुराने
RojgarBytes AI 🟢 Online | Ask anything
👋 नमस्ते! मैं RojgarBytes का AI असिस्टेंट हूँ। आप मुझसे कंप्यूटर का कोई भी डाउट पूछ सकते हैं।
🔥 Viva शुरू करें
📱 सोशल मीडिया
मैं जवाब टाइप कर रहा हूँ... ✍️