वर्डप्रेस कंटेंट को गूगल सर्च से कैसे निकाले

वर्डप्रेस कंटेंट और फाइल्स को गूगल सर्च से कैसे निकाले

कभी-कभी आपको Google खोज परिणामों में विशिष्ट वर्डप्रेस सामग्री या फ़ाइलों को अनुक्रमित करने से बाहर करने की आवश्यकता होती है। Google और अन्य खोज इंजन के उद्भव से पहले सूचकांक, या “अनुक्रमणिका” एक शब्द था जो ज्यादातर पुस्तकों से जुड़ा था। यह आमतौर पर अधिकांश पुस्तकों के पीछे रहता है, और यही कारण है कि कैम्ब्रिज शब्दकोश इस संदर्भ में इसे परिभाषित करता है:


सूचकांक: एक वर्णमाला सूची, जैसे कि किसी पुस्तक के पीछे एक मुद्रित जो दिखाती है कि पृष्ठ किस विषय, नाम आदि पर है.

इंटरनेट बूम के दौरान 1995 तक तेजी से आगे, हमारे पास याहू सर्च इंजन जैसी सेवाएं हैं, और 1997 में आते हैं, Google खोज ने नाटकीय रूप से बदल दिया है कि हम इंटरनेट पर कैसे खोज और जानकारी प्राप्त करते हैं.

जनवरी 2018 में किए गए एक सर्वेक्षण के अनुसार, इंटरनेट पर 1,805,260,010 (1.8 बिलियन से अधिक) वेबसाइट हैं, और इनमें से कई वेबसाइटों को कोई भी आगंतुक नहीं मिलता है।.

Google अनुक्रमण क्या है?

अनुक्रमण के एक अलग प्रारूप के साथ अलग-अलग खोज इंजन हैं, लेकिन लोकप्रिय खोज इंजन में Google, बिंग और गोपनीयता-दिमाग वाले व्यक्तियों, duckduckgo शामिल हैं.

Google अनुक्रमण आमतौर पर नए वेब पृष्ठों को जोड़ने की प्रक्रिया को संदर्भित करता है, जिसमें डिजिटल सामग्री जैसे कि दस्तावेज़, वीडियो और चित्र शामिल हैं, और उन्हें अपने डेटाबेस में संग्रहीत करता है। दूसरे शब्दों में, Google खोज परिणामों पर आपकी साइट की सामग्री प्रदर्शित होने के लिए, उन्हें पहले Google अनुक्रमणिका में संग्रहीत करना होगा.

Google अनुक्रमण क्या है?

Google इन सभी डिजिटल पृष्ठों और सामग्री को अपने मकड़ियों, क्रॉलरों या बॉट्स का उपयोग करने में सक्षम बनाता है जो इंटरनेट में विभिन्न वेबसाइटों को बार-बार क्रॉल करते हैं। ये बॉट और क्रॉलर वेबसाइट के मालिकों के निर्देशों का पालन करते हैं कि क्रॉल करने के दौरान क्या क्रॉल किया जाना चाहिए और क्या अनदेखा किया जाना चाहिए.

क्यों वेबसाइटों को अनुक्रमित किया जाना चाहिए?

डिजिटल युग के इस युग में, किसी विशेष विषय और सामग्री को खोजने वाली अरबों वेबसाइटों पर नेविगेट करना लगभग असंभव है। यह बहुत आसान होगा यदि हमें दिखाने के लिए एक उपकरण है कि कौन सी साइट भरोसेमंद हैं, कौन सी सामग्री हमारे लिए उपयोगी और प्रासंगिक है। यही कारण है कि Google मौजूद है और अपने खोज परिणामों में वेबसाइटों को रैंक करता है.

अनुक्रमण सामान्य रूप से और विशेष रूप से Google में खोज इंजन कैसे काम करता है, इसका एक अनिवार्य हिस्सा बन जाता है। यह उन शब्दों और अभिव्यक्तियों की पहचान करने में मदद करता है जो एक पृष्ठ का सबसे अच्छा वर्णन करते हैं, और कुल मिलाकर पृष्ठ और वेबसाइट रैंकिंग में योगदान करते हैं। Google के पहले पृष्ठ पर आपकी वेबसाइट, जिसमें वेबपृष्ठ और वीडियो, चित्र और दस्तावेज़ जैसी डिजिटल फ़ाइलें शामिल हैं, को पहले अनुक्रमित करने की आवश्यकता है.

अनुक्रमण सामान्य रूप से और विशेष रूप से Google में खोज इंजन पर अच्छी तरह से रैंक करने के लिए वेबसाइटों के लिए एक आवश्यक कदम है। कीवर्ड का उपयोग करके, साइटों को बेहतर तरीके से देखा और खोजा जा सकता है, जिन्हें खोज इंजन द्वारा अनुक्रमित और क्रमबद्ध किया जाता है। यह तब आपकी वेबसाइट और व्यवसाय के लिए अधिक आगंतुकों, ग्राहकों और संभावित ग्राहकों के लिए दरवाजे खोलता है.

शव को छिपाने के लिए सबसे अच्छी जगह Google के पेज दो है.

बहुत सारे अनुक्रमित पृष्ठ होने के बावजूद, आपकी साइटें स्वचालित रूप से उच्च रैंक नहीं लाती हैं, यदि उन पृष्ठों की सामग्री उच्च-गुणवत्ता वाली है और साथ ही आप एसईओ के संदर्भ में एक बढ़ावा पा सकते हैं।.

इंडेक्सिंग कंटेंट से सर्च इंजन को ब्लॉक क्यों और कैसे करें

जबकि अनुक्रमण वेबसाइट और व्यापार मालिकों के लिए बहुत अच्छा है, ऐसे पृष्ठ हैं जिन्हें आप खोज परिणामों में नहीं दिखाना चाह सकते हैं। आप इंटरनेट पर संवेदनशील फ़ाइलों और सामग्री को उजागर करने का जोखिम उठा सकते हैं। पासवर्ड या प्रमाणीकरण के बिना, निजी सामग्री को जोखिम और अनधिकृत पहुंच का खतरा होता है, यदि बॉट्स को वेबसाइट के फ़ोल्डर और फ़ाइलों पर मुफ्त में प्रबलित किया जाता है.

2000 के दशक की शुरुआत में हैकर्स क्रेडिट कार्ड की जानकारी प्रदर्शित करने के लिए Google खोज का उपयोग किया सरल खोज क्वेरी वाली वेबसाइटों से। इस सुरक्षा दोष का उपयोग कई हैकर्स ने ई-कॉमर्स वेबसाइटों से कार्ड की जानकारी चोरी करने के लिए किया था.

एक और हाल सुरक्षा खामियां पिछले साल हुई, एक लोकप्रिय क्लाउड स्टोरेज सिस्टम। सुरक्षा छेद को माक्र्स नेइस, स्विसकॉम के लिए खुफिया खुफिया प्रबंधक द्वारा उजागर किया गया था। उन्होंने बताया कि Google और बिंग सहित खोज इंजन के सरल कारनामे गोपनीय फाइलों और कई व्यवसाय और व्यक्तिगत ग्राहकों की जानकारी को उजागर कर सकते हैं.

इस तरह के मामले ऑनलाइन होते हैं और व्यापार मालिकों के लिए बिक्री और राजस्व में नुकसान का कारण बन सकते हैं। कॉर्पोरेट, ई-कॉमर्स और सदस्यता वेबसाइटों के लिए, संवेदनशील सामग्री और निजी फ़ाइलों की खोज अनुक्रमण को पहले ब्लॉक करना महत्वपूर्ण है और फिर संभवतः उन्हें एक सभ्य उपयोगकर्ता प्रमाणीकरण प्रणाली के पीछे रखा जाए।.

आइए एक नज़र डालते हैं कि आप Google और अन्य खोज इंजनों द्वारा किस सामग्री और फ़ाइलों को क्रॉल और अनुक्रमित कर सकते हैं.

1. छवियों के लिए Robots.txt का उपयोग करना

Robots.txt Google, बिंग और अन्य सर्च इंजन बॉट को क्रॉल करने और क्या नहीं करने के निर्देश के साथ आपकी साइट के रूट पर स्थित एक फाइल है। जबकि रोबो.टैक्स का उपयोग आमतौर पर क्रॉलिंग ट्रैफ़िक और वेब (मोबाइल बनाम डेस्कटॉप) क्रॉलर को नियंत्रित करने के लिए किया जाता है, इसका उपयोग छवियों को Google खोज परिणामों में दिखाई देने से रोकने के लिए भी किया जा सकता है.

सामान्य वर्डप्रेस वेबसाइटों की एक robots.txt फ़ाइल इस तरह दिखाई देगी:

उपभोक्ता अभिकर्ता: *
अस्वीकार करें: / wp-admin /
अस्वीकार करें: / wp- शामिल /

मानक robots.txt फ़ाइल उपयोगकर्ता-एजेंट और एक तारांकन चिह्न के लिए एक निर्देश के साथ शुरू होती है। तारांकन सभी बॉट्स के लिए एक निर्देश है जो वेबसाइट पर आने वाले सभी निर्देशों का पालन करने के लिए नीचे आता है.

Robot.txt का उपयोग करके विशिष्ट डिजिटल फ़ाइलों से बॉट को दूर रखें

Robots.txt का उपयोग PDF, JPEG या MP4 जैसे डिजिटल फ़ाइलों के खोज इंजन क्रॉलिंग को रोकने के लिए भी किया जा सकता है। PDF और JPEG फ़ाइल के खोज क्रॉलिंग को ब्लॉक करने के लिए, इसे robots.txt फ़ाइल में जोड़ा जाना चाहिए:

पीडीएफ फाइलें

उपभोक्ता अभिकर्ता: *
अस्वीकार करें: / pdfs / # ब्लॉक / pdfs / निर्देशिका.
अस्वीकार करें: *। Bdf $ # सभी बॉट से पीडीएफ़ फ़ाइलें। गैर-मानक, यह प्रमुख खोज इंजनों के लिए काम करता है.

इमेजिस

उपयोगकर्ता-एजेंट: Googlebot- छवि
विशेष रूप से Googlebot के लिए: Disim: /images/cats.jpg #Block cat.jpg छवि.

यदि आप सभी .GIF छवियों को अनुक्रमित करने और Google छवि खोज पर दिखाने से रोकना चाहते हैं, तो JPEG और PNG जैसे अन्य छवि प्रारूपों की अनुमति देते हुए, आपको निम्नलिखित नियमों का उपयोग करना चाहिए:

उपयोगकर्ता-एजेंट: Googlebot- छवि
अस्वीकार करें: /*.gif$

जरूरी: उपरोक्त स्निपेट केवल आपकी सामग्री को Google जैसे तृतीय पक्ष साइटों द्वारा अनुक्रमित होने से बाहर रखेंगे। वे अभी भी सुलभ हैं अगर कोई जानता है कि कहां देखना है। फ़ाइलों को निजी बनाने के लिए कोई भी उन तक नहीं पहुंच सकता है, आपको इन सामग्री प्रतिबंध प्लगइन्स जैसी किसी अन्य विधि का उपयोग करने की आवश्यकता होगी.

Googlebot- छवि का उपयोग छवियों को अवरुद्ध करने के लिए किया जा सकता है और एक विशेष छवि विस्तार को Google छवि खोज पर प्रदर्शित होने से रोका जा सकता है। यदि आप उन्हें सभी Google खोजों से बाहर करना चाहते हैं, उदा। वेब खोज और चित्र, इसके बजाय Googlebot उपयोगकर्ता एजेंट का उपयोग करना उचित है.

एक वेबसाइट पर विभिन्न तत्वों के लिए अन्य Google उपयोगकर्ता एजेंट में वेब पर Google वीडियो अनुभाग में आवेदन करने से वीडियो के लिए Googlebot-Video शामिल हैं। इसी तरह, Googlebot उपयोगकर्ता-एजेंट का उपयोग करके सभी वीडियो को Google वीडियो, वेब खोज या मोबाइल वेब खोज में दिखाने से रोक देगा.

रोबोट नो-इंडेक्स को txt करते हैं

कृपया ध्यान रखें कि Robots.txt का उपयोग संवेदनशील या गोपनीय फ़ाइलों को अवरुद्ध करने और निम्नलिखित सीमाओं के कारण सामग्री को रोकने का एक उपयुक्त तरीका नहीं है:

  • Robots.txt केवल अच्छे व्यवहार वाले क्रॉलर को निर्देश दे सकता है; अन्य गैर-आज्ञाकारी खोज इंजन और बॉट बस इसके निर्देशों की अनदेखी कर सकते हैं.
  • Robots.txt आपके सर्वर को अनुरोध पर अनधिकृत उपयोगकर्ताओं को उन पृष्ठों और फ़ाइलों को भेजने से नहीं रोकता है.
  • खोज इंजन अभी भी उस पेज को खोज सकते हैं और अनुक्रमित कर सकते हैं जो आपके द्वारा अन्य वेबसाइटों और स्रोतों से जुड़े होने की स्थिति में ब्लॉक करते हैं.
  • Robots.txt किसी के लिए भी सुलभ है, जो आपके दिए गए सभी निर्देशों को पढ़ सकता है और उन सामग्रियों और फाइलों तक सीधे पहुंच सकता है

खोज अनुक्रमण को अवरुद्ध करने और अपनी निजी जानकारी को अधिक प्रभावी ढंग से संरक्षित करने के लिए, कृपया इसके बजाय निम्नलिखित विधियों का उपयोग करें.

2. पेजों के लिए नो-इंडेक्स मेटा टैग का उपयोग करना

आपकी वेबसाइट पर संवेदनशील सामग्री की खोज अनुक्रमण को अवरुद्ध करने के लिए नो-इंडेक्स मेटा टैग का उपयोग करना एक उचित और अधिक प्रभावी तरीका है। Robots.txt के विपरीत, नो-इंडेक्स मेटा टैग में रखा गया है एक बहुत ही सरल HTML टैग के साथ एक वेबपेज का अनुभाग:



...

हेडर पर इस निर्देश वाला कोई भी पृष्ठ Google खोज परिणाम पर दिखाई नहीं देगा. अन्य निर्देश जैसे कि nofollow और notranslate का उपयोग वेब क्रॉलर्स को यह बताने के लिए किया जा सकता है कि उस पेज के लिंक और ऑफर्स क्रमशः क्रॉल न करें.

आप एक पृष्ठ पर कई मेटा टैग का उपयोग करके कई क्रॉलर को निर्देश दे सकते हैं:



...


इस कोड को अपनी वेबसाइट पर जोड़ने के दो तरीके हैं। आपका पहला विकल्प वर्डप्रेस चाइल्ड थीम बनाना है, फिर अपने फंक्शन्स में। यदि आप एक नोइंडेक्स या किसी अन्य मेटा टैग को डालने के लिए वर्डप्रेस wp_head एक्शन हुक का उपयोग कर सकते हैं। नीचे एक उदाहरण दिया गया है कि आप अपने लॉगिन पृष्ठ पर कैसे प्रवेश करेंगे.

add_action ('wp_head', function () {
अगर (is_page ('लॉगिन')) {
गूंज '';
}
};

आपका दूसरा विकल्प पृष्ठ की दृश्यता को नियंत्रित करने के लिए अपने एसईओ प्लगइन का उपयोग करना है। उदाहरण के लिए, Yoast SEO से आप किसी पृष्ठ पर उन्नत सेटिंग अनुभाग पर जा सकते हैं और खोज इंजन को पृष्ठ दिखाने की अनुमति देने के विकल्पों के लिए “नहीं” चुनें:

Yoast SEO Search Results सेटिंग

3. अन्य फाइलों के लिए एक्स-रोबोट-टैग HTTP हेडर का उपयोग करना

एक्स-रोबोट-टैग आपको अपनी सामग्री और फ़ाइलों की खोज अनुक्रमण को अवरुद्ध करने के लिए अधिक लचीलापन देता है। विशेष रूप से, जब नो-इंडेक्स मेटा टैग की तुलना में इसे किसी भी यूआरएल के लिए HTTP हेडर प्रतिक्रिया के रूप में उपयोग किया जा सकता है। उदाहरण के लिए, आप छवि, वीडियो और दस्तावेज़ फ़ाइलों के लिए एक्स-रोबोट-टैग का उपयोग कर सकते हैं जहां रोबोट मेटा टैग का उपयोग करना संभव नहीं है.

तुम पढ़ सकते हो Google के पूर्ण रोबोट मेटा टैग गाइड, लेकिन यहां बताया गया है कि आप क्रॉलर्स को अपने HTTP प्रतिसाद पर एक्स-रोबोट्स-टैग का उपयोग करके जेपीईजी इमेज को फॉलो और इंडेक्स नहीं करने का निर्देश दे सकते हैं:

HTTP / 1.1 200 ठीक है
सामग्री-प्रकार: छवि / जेपीईजी
दिनांक: शनि, २: नवंबर २०१ Nov 01:02:09 GMT
(...)
एक्स-रोबोट्स-टैग: नोइंडेक्स, नोफ्लो
(...)

कोई भी निर्देश जो रोबोट मेटा टैग के साथ उपयोग किए जा सकते हैं, वे एक्स-रोबोट-टैग पर भी लागू होते हैं। इसी तरह, आप कई खोज इंजन बॉट को भी निर्देश दे सकते हैं:

HTTP / 1.1 200 ठीक है
दिनांक: Tue, 21 Sep 2018 21:09:19 GMT
(...)
एक्स-रोबोट-टैग: googlebot: nofollow
एक्स-रोबोट-टैग: bingbot: noindex
एक्स-रोबोट्स-टैग: अन्यबॉट: नोइंडेक्स, नोफॉलो
(...)

यह ध्यान रखना महत्वपूर्ण है कि खोज इंजन बॉट्स रेंगने की प्रक्रिया के दौरान रोबोट मेटा टैग और एक्स-रोबोट-टैग HTTP हेडर की खोज करते हैं। इसलिए यदि आप चाहते हैं कि ये बॉट आपके निर्देश का पालन करें और किसी गोपनीय सामग्री और दस्तावेजों का अनुगमन न करें, तो आपको इन पेजों को बंद नहीं करना चाहिए और URL को क्रॉल करने से रोकना चाहिए.

यदि वे robots.txt फ़ाइल का उपयोग करके क्रॉल करने से अवरोधित हैं, तो अनुक्रमण के आपके निर्देश को पढ़ा नहीं जाएगा, और इसलिए, इसे अनदेखा कर दिया जाएगा। परिणामस्वरूप, यदि अन्य वेबसाइटें आपकी सामग्री और दस्तावेज़ों से लिंक करती हैं, तो उन्हें Google और अन्य खोज इंजन द्वारा अनुक्रमित किया जाएगा.

4. अपाचे सर्वर के लिए .htaccess नियमों का उपयोग करना

आप क्रॉलर को अनुक्रमण सर्वर पर होस्ट की गई पृष्ठों और डिजिटल सामग्री से क्रॉलर को ब्लॉक करने के लिए अपनी .htaccess फ़ाइल में एक्स-रोबोट-टैग HTTP हेडर भी जोड़ सकते हैं। नो-इंडेक्स मेटा टैग के विपरीत, .htaccess नियमों को पूरी वेबसाइट या किसी विशेष फ़ोल्डर में लागू किया जा सकता है। नियमित अभिव्यक्तियों का इसका समर्थन आपको एक साथ कई फ़ाइल प्रकारों को लक्षित करने के लिए और भी अधिक लचीलापन प्रदान करता है.

Googlebot, Bing और Baidu को किसी वेबसाइट या विशेष निर्देशिका को क्रॉल करने से रोकने के लिए, निम्नलिखित नियमों का उपयोग करें:

रिवरटाइंगइन ऑन
RewriteCond% {HTTP_USER_AGENT} (googlebot | bingbot | Baiduspider) [NC]
रिवर्रिएट। * - [आर = 403, एल]

अपनी संपूर्ण वेबसाइट पर .txt, .jpg, .jpeg, .pdf फ़ाइलों की खोज अनुक्रमणिका को ब्लॉक करने के लिए, निम्नलिखित स्निपेट जोड़ें:


हैडर ने X- रोबोट्स-टैग "noindex, nofollow" सेट किया

5. उपयोगकर्ता नाम और पासवर्ड के साथ पृष्ठ प्रमाणीकरण का उपयोग करना

उपरोक्त विधियाँ आपकी निजी सामग्री और दस्तावेजों को Google खोज परिणामों में प्रदर्शित होने से रोकेंगी। हालांकि, लिंक वाले कोई भी उपयोगकर्ता आपकी सामग्री तक पहुंच सकते हैं और सीधे आपकी फ़ाइलों तक पहुंच सकते हैं। सुरक्षा के लिए, यह अत्यधिक अनुशंसित है कि आपने उपयोगकर्ता नाम और पासवर्ड के साथ-साथ रोल एक्सेस अनुमति के साथ उचित प्रमाणीकरण स्थापित किया है.

पृष्ठ प्रमाणीकरण का उपयोग करना

उदाहरण के लिए, ऐसे पृष्ठ जिनमें कर्मचारियों के व्यक्तिगत प्रोफाइल और संवेदनशील दस्तावेज़ शामिल हैं, जिन्हें अनाम उपयोगकर्ताओं द्वारा एक्सेस नहीं किया जाना चाहिए, उन्हें प्रमाणीकरण गेट के पीछे धकेल दिया जाना चाहिए। इसलिए जब उपयोगकर्ता किसी तरह पृष्ठों को खोजने का प्रबंधन करते हैं, तो उन्हें सामग्री की जांच करने से पहले क्रेडेंशियल के लिए कहा जाएगा.

वर्डप्रेस पासवर्ड प्रोटेक्ट

वर्डप्रेस के साथ ऐसा करने के लिए बस पोस्ट की दृश्यता निर्धारित करें पासवर्ड से सुरक्षित. इस तरह आप उस पृष्ठ की सामग्री को देखने के लिए आवश्यक पासवर्ड का चयन कर सकते हैं। यह प्रति पोस्ट / पृष्ठ के आधार पर करना काफी आसान है। अधिक व्यापक साइट गोपनीयता के लिए, अपनी वेबसाइट पर इनमें से एक वर्डप्रेस सदस्यता प्लगइन्स को जोड़ने का प्रयास करें.

कृपया ध्यान रखें कि खोज इंजन और आगंतुकों से पासवर्ड से सुरक्षित या छिपे हुए पृष्ठ जरूरी नहीं कि इसकी सामग्री से जुड़े दस्तावेजों, वीडियो और छवियों की रक्षा करें। आपके वर्डप्रेस फ़ाइल अपलोड की वास्तविक सुरक्षा के लिए, एक प्रीमियम सेवा जैसे प्रिवेंट डायरेक्ट एक्सेस गोल्ड अत्यधिक अनुशंसित है.

निष्कर्ष

Google के पृष्ठ एक पर होने की दौड़ में, व्यवसाय के मालिक इस बात पर ध्यान नहीं दे सकते कि खोज इंजन क्या देख सकता है। चाहे आप किसी विशिष्ट फ़ाइल से बॉट्स ब्लॉक कर रहे हों, एक कस्टम लॉगिन पेज छुपा रहे हों, या निजी उपयोगकर्ता निर्देशिकाओं की सुरक्षा करने वाले पासवर्ड हों … खोज इंजनों की बात हो तो नो-इंडेक्सिंग पर विचार करने के लिए बहुत सारे पृष्ठ हैं।.

क्या आपके पास खोज परिणामों से सामग्री को बाहर करने के बारे में कोई प्रश्न है? या bing अनुक्रमित से कुछ फ़ाइलों को रोकना? नीचे एक टिप्पणी छोड़ दें!

Jeffrey Wilson Administrator
Sorry! The Author has not filled his profile.
follow me