सर्च इंजन क्या है?
(What is Search Engine)
Search Engine एक सॉफ्टवेयर प्रोग्राम है जिसका उपयोग वर्ल्ड वाइड वेब पर विशिष्ट साइटों की खोज के लिए किया जाता है। जो शब्दों की खोज करता है। Search Engine अपने डेटाबेस को देखते हैं, जो आप खोज रहे हैं। आप इन्टनेट पर जब किसी भी चीज को ढूंढते हैं तब यह आपकी सहायता करता हैं।
Search Engine एक सॉफ्टवेयर प्रोग्राम या स्क्रिप्ट इंटरनेट के माध्यम से उपलब्ध होता है जो खोजशब्दों के लिए दस्तावेजों और फ़ाइलों की खोज करता है और उन खोजशब्दों वाली किसी भी फाइल के परिणाम देता है। आज, इंटरनेट पर हजारों अलग-अलग सर्च इंजन उपलब्ध हैं, जिनमें से प्रत्येक अपनी क्षमताओं और सुविधाओं के साथ उपलब्ध है। विकसित किए गए पहले खोज इंजन को आर्ची माना जाता है, जिसका उपयोग एफ़टीपी फाइलों की खोज के लिए किया गया था और पहले टेक्स्ट-आधारित सर्च इंजन को वेरोनिका माना जाता है। आज, सबसे लोकप्रिय और जाने-माने सर्च इंजन Google है। अन्य लोकप्रिय खोज इंजनों में AOL, Ask.com, Baidu, Bing और याहू शामिल हैं।
List of top Search Engines
- Yahoo
- Bing
- Ask.com
- Aol.com
- Baidu
- DuckDuckGo
- Internet
- Archive
- Yandex.ru
- Wolframalpha
जरूरी नहीं विभिन्न Search Engine अलग-अलग खोज परिणाम देते हैं। Google सबसे लोकप्रिय खोज इंजन है क्योंकि आप जो खोज रहे हैं उसे ढूंढने में यह सबसे प्रभावी है। औसतन, यह याहू से अधिक प्रासंगिक परिणाम उत्पन्न करता है! या बिंग, यह व्यवस्थित करने और उन्हें फ़िल्टर करने में बेहतर है।
एक समाज के रूप में, हम Search Engine पर निर्भर हो गए हैं। आज, इंटरनेट चलाना पहले से कहीं अधिक आसान है हम इन्टरनेट पर लगभग सभी प्रश्नों के उत्तर प्राप्त कर सकते है। हमारे सबसे व्यक्तिगत प्रश्नों से सबसे बुनियादी तक, Search Engine जानकारी खोजने के लिए हमारा मुख्य स्रोत बन गया हैं। लेकिन क्या आपने कभी सोचा है कि वे इसे कैसे करते हैं? Search Engine कैसे काम करता हैं?
सर्च इंजन कैसे काम करते हैं
(How Do Search Engine Work)
खोज करने से पहले, वेब क्रॉलर सैकड़ों अरबों वेबपृष्ठों से जानकारी इकट्ठा करते हैं और इसे खोज अनुक्रमणिका (Search Indexing) में व्यवस्थित करते हैं। अधिकांश Search Engine क्रॉलिंग (Crawling) के आधार पर एक इंडेक्स बनाते हैं, यह वह प्रक्रिया है जिसके माध्यम से Google, याहू और अन्य इंजन इंडेक्स में नए पेज ढूंढते हैं। बॉट्स (bots) या मकड़ियों (Spiders) के रूप में जाना जाने वाला तंत्र नए पेज की तलाश में वेब को क्रॉल (Crawl) करता है। बॉट (bots) आमतौर पर पिछले क्रॉल (Crawl) से निर्धारित वेबसाइट यूआरएल की एक सूची से शुरू होते हैं। जब वे इन पेजों पर नए लिंक का पता लगाते हैं, HREF और SRC जैसे टैग के माध्यम से, वे इन्हें इंडेक्स में साइटों की सूची में जोड़ते हैं। फिर, Search Engine आपके द्वारा उपयोग किए गए खोज शब्दों के आधार पर आपको सबसे अधिक रुचि रखने वाली चीज़ों की एक रैंकिंग सूची प्रदान करने के लिए उनके एल्गोरिदम का उपयोग करते हैं।
फिर, इंजन अपने विशिष्ट एल्गोरिदम का उपयोग करके रैंक किए गए वेब परिणामों की एक सूची वापस कर देगा। Google पर, वैयक्तिकृत और सार्वभौमिक परिणामों जैसे अन्य तत्व भी आपकी पृष्ठ रैंकिंग को बदल सकते हैं। व्यक्तिगत परिणामों में, Search Engine अतिरिक्त जानकारी का उपयोग करता है जो उपयोगकर्ता सीधे अपनी रुचियों पर वापस आ सकता है। सार्वभौमिक खोज परिणामों में एक बड़ा चित्र परिणाम बनाने के लिए वीडियो, इमेजेस और Google समाचारों को गठबंधन किया जाता है, जिसका अर्थ एक ही कीवर्ड से अधिक वेबसाइटों का हो सकता है।
Crawling
Search Engine अपना काम मकड़ी (Spider) के साथ शुरू करता है। उपयोगकर्ताओं को जानकारी प्रदान करने के लिए, Search Engine को पता होना चाहिए कि वहां कौन सी जानकारी है। प्रत्येक Search Engine का अपना ‘स्पाइडर’ होता है जो एक ऐसा प्रोग्राम है जो Search Engine को crawl करने या वेबसाइटों के बैकएंड कोड को पढ़ने में सक्षम बनाता है। (सर्च इंजन स्पाइडर पेज से पेज और वेब साइट से लिंक के जरिए यात्रा करता है, जैसे आप किसी वेबसाइट पर नेविगेट करने के लिए क्लिक करेंगे। Search Engine Spider फिर अन्य पृष्ठों और अन्य वेबसाइटों के लिंक का पालन करता हैं।
टाइटनबॉट, टाइटन ग्रोथ का Spider Search Engine मकड़ियों को क्रॉल (Crawl) करने और डेटा खींचने के लिए डिज़ाइन किया गया था। टाइटनबॉट और सर्च इंजन स्पाइडर सामान्य रूप से वेबसाइटों के माध्यम से क्रॉल (Crawl) करते हैं।
Indexing
जब मकड़ी पृष्ठों को क्रॉल (Crawl) करता है, तो यह कोड की प्रतिलिपि (copy) बनाता है और फिर उस जानकारी को “indexes” करता है। इंडेक्सिंग का मतलब है कि वे जानकारी को Search Engine के डेटाबेस में सहेजते (Save) हैं। कल्पना करें कि एक Search Engine का डेटाबेस एक पुस्तकालय है और हर वेबसाइट एक किताब है। यदि Search Engine स्पाइडर पहली बार वेबसाइट को क्रॉल (Crawl) करता है, तो यह लाइब्रेरी में एक नई पुस्तक जोड़ देगा। इसके अतिरिक्त, यदि कोई मौजूदा वेबसाइट नए पेज जोड़ती है, तो मकड़ियों को लाइब्रेरी में मौजूदा पुस्तक में उन पृष्ठों को और जोड़ दिया जाएगा। क्योकि Search Engine हमेशा नवीनतम और सबसे प्रासंगिक डेटा वितरित करना चाहता हैं, इसलिए Search Engine स्पाइडर लगातार नई जानकारी और लाइब्रेरी में जोड़ने के अपडेट के लिए वेब खोज को क्रॉल (Crawl) करता रहता हैं|