यांडेक्स में पृष्ठों का तेजी से अनुक्रमण। शुरुआती वेबमास्टरों के लिए वर्डप्रेस प्लगइन सेटिंग्स और खोज इंजन अनुकूलन के बारे में एक ब्लॉग। यांडेक्स को सही पत्र लिखना

💖क्या आपको यह पसंद है?लिंक को अपने दोस्तों के साथ साझा करें

खोज इंजन से ट्रैफ़िक किसी भी संसाधन के लिए सबसे वांछनीय है। लेकिन ताकि लोग साइट ढूंढ सकें खोज के परिणाम, इसे सबसे पहले सूचकांक में आना होगा। कुछ वेबमास्टर इस उम्मीद में इस पर पर्याप्त ध्यान नहीं देते हैं कि खोज इंजन स्वयं उनकी साइट या उसके नए पेज ढूंढ लेंगे। दुर्भाग्य से, आप बहुत लंबे समय तक प्रतीक्षा कर सकते हैं।

यांडेक्स में साइट की अनुक्रमणिका यहां विशेष रूप से भिन्न है। यदि Google किसी पृष्ठ को कुछ ही दिनों में पकड़ लेता है, तो Runet का मुख्य खोज इंजन बिना बाहरी मददमहीनों तक साइट पर ध्यान न दें।

लेकिन हम सब कुछ ठीक कर सकते हैं. यदि आप जानते हैं कि कैसे कार्य करना है, तो यांडेक्स पृष्ठों के प्रदर्शित होने के कुछ ही मिनटों के भीतर उन्हें अनुक्रमित कर सकता है। और जितनी तेज़ी से आपकी प्रविष्टियाँ इस खोज इंजन के डेटाबेस में दिखाई देंगी, उतनी ही तेज़ी से उनका प्रचार शुरू होगा - आगंतुकों को प्राप्त करना और इंटरनेट पर लोकप्रियता हासिल करना उतना ही आसान होगा।

Yandex में कोई साइट कितनी जल्दी अनुक्रमित हो जाती है?

सभी संसाधनों को उनके नए पृष्ठों को अनुक्रमित करने की गति के आधार पर कई समूहों में विभाजित किया जा सकता है:

  • 1. तेजी से अनुक्रमित साइटें। इनमें मुख्य रूप से न्यूज पोर्टल और जाने-माने फोरम शामिल हैं। नई प्रविष्टियाँ वस्तुतः कुछ ही मिनटों में सूचकांक में समाप्त हो जाती हैं, जो काफी तार्किक है - समाचार बहुत कम समय के लिए समाचार बना रहता है। साथ ही, लगातार अद्यतन किए गए ट्रस्ट संसाधनों द्वारा यांडेक्स डेटाबेस में त्वरित प्रविष्टि सुनिश्चित की जाती है। वे पहले ही अपनी सामग्री की गुणवत्ता और उम्र के कारण उनका विश्वास जीत चुके हैं।
  • 2. अच्छी तरह से अनुक्रमित साइटें। ये वे संसाधन हैं जिन्होंने खोज इंजन को नियमित अपडेट का आदी बना दिया है। जरूरी नहीं कि वे भरोसेमंद या पुराने हों, वे बस उपयोगकर्ताओं और खोज इंजन दोनों को नई सामग्री से लगातार प्रसन्न करते हैं। यांडेक्स ऐसी साइटों के साथ अच्छा व्यवहार करता है और पेज कुछ दिनों से अधिक समय तक इंडेक्स से बाहर नहीं रहते हैं।
  • 3. ऐसी साइटें जिन्हें अनुक्रमित करना कठिन है। यह नए संसाधनों पर लागू होता है, खासकर यदि वेबमास्टर उन्हें लोकप्रिय बनाने के लिए कोई कार्रवाई नहीं करते हैं। इसके अलावा, जो साइटें लंबे समय तक अपडेट नहीं की जाती हैं, वे खराब तरीके से अनुक्रमित होती हैं। यदि आप कई महीनों तक नई प्रविष्टियाँ नहीं जोड़ते हैं, तो यांडेक्स साइट पर जाना बंद कर देता है - यह जब चाहे तब वापस आ जाएगा, आप बहुत लंबे समय तक प्रतीक्षा कर सकते हैं।

यह वर्गीकरण है. यह स्पष्ट है कि यह वेबमास्टर्स और ऑप्टिमाइज़र की टिप्पणियों के आधार पर सशर्त है। यांडेक्स कभी भी किसी को नहीं बताएगा कि वह किस सिद्धांत पर साइटों को अनुक्रमित करता है और यह कैसे निर्धारित करता है कि किसे देखना है और कौन उसके ध्यान के योग्य नहीं है। लेकिन इस विभाजन से बहुत उपयोगी निष्कर्ष निकाले जा सकते हैं।

कौन सी साइटें यांडेक्स द्वारा शीघ्रता से अनुक्रमित की जाती हैं:

  • बार-बार अद्यतन: जितनी अधिक बार रिकॉर्ड दिखाई देते हैं, उतनी ही तेजी से वे सूचकांक में आते हैं;
  • विश्वास: आयु, टीआईसी संकेतक, ट्रैफ़िक, पृष्ठों की संख्या - जितना अधिक, साइट पर यैंडेक्स का विश्वास उतना अधिक होगा, उतनी ही अधिक बार खोज इंजन रोबोट उस पर आएगा।

बेशक, अन्य कारक अनुक्रमण को प्रभावित कर सकते हैं, जैसे साइट का विषय, बाहरी लिंक, व्यवहार संबंधी कारक. इसलिए, कोई भी खोज परिणामों में पृष्ठों की त्वरित उपस्थिति की गारंटी देने का कार्य नहीं करेगा, यहां तक ​​कि विश्वसनीय साइटों के लिए भी। जिस प्रकार यह आवश्यक नहीं है कि एक नई बनाई गई वेबसाइट Yandex में अनुक्रमण के लिए महीनों प्रतीक्षा करेगी। इसके अलावा, हम स्वयं भी इस प्रक्रिया पर कुछ प्रभाव डाल सकते हैं।

यांडेक्स में किसी साइट को तेजी से कैसे अनुक्रमित करें?

यांडेक्स में अनुक्रमण को तेज करने के लिए, हम ट्विटरस्टॉक एक्सचेंज पर ट्वीट खरीदने की सलाह देते हैं; आप ट्रस्ट खातों से 3 रूबल के लिए ट्वीट खरीद सकते हैं। तेज़ रोबोट बहुत तेज़ी से आता है

सबसे पहले, आपको अपनी साइट को Yandex वेबमास्टर पैनल (Yandex.Webmaster) में जोड़ना होगा। इस तरह आप खोज इंजन को नए संसाधन की उपलब्धता के बारे में सूचित करेंगे। यह प्रक्रिया सरल है, लेकिन बहुत उपयोगी है, विशेषकर इसलिए क्योंकि यह आपको यह निगरानी करने का अवसर देगी कि आपकी साइट को यांडेक्स द्वारा कैसा माना जाता है।

इसके अलावा, आप प्रत्येक नए पृष्ठ को एडुरिल्का में जोड़ सकते हैं (उसी Yandex.Webmaster में, "एक नई साइट की रिपोर्ट करें" आइटम)। हालाँकि यह अनुक्रमण की गारंटी नहीं है, फिर भी यह अतिश्योक्तिपूर्ण नहीं होगा।

  • साइट मैप बनाएं: सबसे अच्छे दो प्रकार हैं उपयोगकर्ताओं के लिए HTML और खोज रोबोट के लिए XML। इस पृष्ठ के लिए धन्यवाद, यांडेक्स तुरंत साइट की संरचना और उसके सभी रिकॉर्ड देख सकेगा, जो उसे हर चीज को जल्दी से अनुक्रमित करने की अनुमति देगा;
  • आंतरिक लिंकिंग करें: एक पृष्ठ से दूसरे पृष्ठ पर लिंक खोज इंजन को पूरे संसाधन के माध्यम से ले जाते हैं, और इसमें सूचकांक में पाए गए रिकॉर्ड शामिल होते हैं;
  • साइट को नियमित रूप से अपडेट करें: यांडेक्स को इस तथ्य की आदत डालें कि आपके पास लगातार नई प्रविष्टियाँ होती हैं - और यह संसाधन पर अधिक बार आएगा।

यांडेक्स में अनुक्रमण को तेज़ बनाने के लिए, आपको बाहरी लिंक के माध्यम से अन्य संसाधनों से एक खोज रोबोट को अपनी साइट पर आकर्षित करने की आवश्यकता है:

  • 1. में घोषणा सामाजिक नेटवर्क मेंऔर ब्लॉग प्लेटफ़ॉर्म। यह शायद अब तक का सबसे अधिक है प्रभावी तरीकायांडेक्स में अनुक्रमण तेज करें। उदाहरण के लिए, ट्विटर के लिंक कुछ ही मिनटों में एक खोज रोबोट को आपकी साइट पर ले जा सकते हैं। यांडेक्स को अपने दिमाग की उपज - Ya.ru ब्लॉग्स बहुत पसंद हैं। लोकप्रिय उपकरणतेज़ अनुक्रमण के लिए VKontakte, LiveInternet, LiveJournal भी हैं। यह स्पष्ट है कि खाते या ब्लॉग के प्रचार पर बहुत कुछ निर्भर करता है - यदि यह यांडेक्स इंडेक्स के बाहर है, तो आपको यह उम्मीद नहीं करनी चाहिए कि इससे कोई लिंक मदद करेगा।
  • 2. ब्लॉग टिप्पणियाँ और फ़ोरम पोस्ट। यह विशेष रूप से प्रभावी है यदि ये संसाधन अच्छी तरह से अनुक्रमित हैं - रोबोट तुरंत आपकी साइट के लिंक का अनुसरण करेगा। यह विधि तब सबसे उपयुक्त होती है जब आपको यांडेक्स इंडेक्स में एक नई साइट जोड़ने की आवश्यकता होती है, क्योंकि यह प्रक्रिया काफी श्रम-गहन है और इसका उपयोग प्रत्येक की इंडेक्सिंग को तेज करने के लिए किया जा सकता है। नविन प्रवेशतर्कहीन.
  • 3. RSS विशेष कैटलॉग में प्रसारण करता है। यांडेक्स कुछ आरएसएस निर्देशिकाओं पर अक्सर जाता है, इसलिए यदि आप वहां अपनी साइट जोड़ते हैं और वे नई प्रविष्टियां प्रसारित करते हैं, तो इससे अनुक्रमण को गति देने में मदद मिलेगी।
  • 4. सामाजिक बुकमार्क में जोड़ना। MyPlace, BeaverDobr, Delicious, Toodoo उनमें से सबसे प्रसिद्ध हैं। खोज इंजन इन सेवाओं में अपडेट की निगरानी करते हैं, इसलिए आपके पृष्ठों के जल्दी से सूचकांक में शामिल होने की पूरी संभावना है।
  • 5. सफेद निर्देशिकाओं में साइटें जोड़ना। यह विशेष रूप से अच्छा है यदि आपका संसाधन Yandex.Catalog में जाने में सफल हो जाता है। यह पहले से ही खोज इंजन के उस पर विश्वास और इसलिए अच्छी अनुक्रमणिका का संकेत देगा।
  • 6. लिंक ख़रीदना. सबसे प्रभावी लिंक ट्रस्ट संसाधनों के साथ-साथ समाचार पोर्टलों से भी होंगे - वे स्वयं जल्दी से अनुक्रमित होते हैं, और इसे आपकी साइट पर प्रदान करेंगे। आप ब्लॉग से भी लिंक ऑर्डर कर सकते हैं, उदाहरण के लिए, Ya.ru या LiveJournal - वे सस्ते हैं और बढ़िया काम करते हैं।

बेशक, इस सूची को जारी रखा जा सकता है, पूरक और अद्यतन किया जा सकता है। विशेष रूप से जब आप मानते हैं कि खोज इंजन अपने एल्गोरिदम को लगातार बदल रहे हैं और सुधार रहे हैं, जिसका अर्थ है कि कोई भी तरीका अप्रासंगिक हो सकता है या, इसके विपरीत, यांडेक्स में साइट के तेजी से अनुक्रमण में अधिक योगदान दे सकता है। लेकिन यह वेबसाइट प्रचार के लिए एक अच्छी शुरुआत है - ऊपर सूचीबद्ध तरीकों का उपयोग करके, आप अपने संसाधन को खोज इंजनों को दिखा सकते हैं, और साथ ही इसे सुधार सकते हैं और अपने लिंक द्रव्यमान को बढ़ा सकते हैं।

अक्सर, Yandex में कोई नई साइट नहीं मिल पाती है। भले ही आप सर्च बार में इसका नाम टाइप करें। इसके कारण अलग-अलग हो सकते हैं. कभी-कभी खोज इंजनों को अभी तक पता ही नहीं चलता कि कोई नया संसाधन सामने आया है। यह पता लगाने के लिए कि क्या हो रहा है और समस्या का समाधान करने के लिए, आपको अपनी साइट को Yandex.Webmaster के साथ पंजीकृत करना होगा।

यांडेक्स में साइट इंडेक्सिंग क्या है?

सबसे पहले, आइए जानें कि खोज इंजन आम तौर पर नई साइटों या उनमें हुए परिवर्तनों के बारे में कैसे पता लगाते हैं। यांडेक्स के पास है विशेष कार्यक्रम, जिसे सर्च रोबोट कहा जाता है।यह रोबोट इंटरनेट पर सर्फ करता है और नए पेज ढूंढता है। कभी-कभी वह पुराने लोगों के पास जाकर देखता है कि उनमें कुछ नया तो नहीं आया है।

जब रोबोट को कोई उपयोगी पृष्ठ मिलता है, तो वह उसे अपने डेटाबेस में जोड़ देता है।इस डेटाबेस को सर्च इंडेक्स कहा जाता है। जब हम खोज में कुछ खोजते हैं, तो हमें इस डेटाबेस से साइटें दिखाई देती हैं। इंडेक्सिंग तब होती है जब रोबोट वहां नए दस्तावेज़ जोड़ता है।

एक रोबोट हर दिन पूरे इंटरनेट को क्रॉल नहीं कर सकता। उसके पास इसके लिए पर्याप्त शक्ति नहीं है. इसलिए, उसे मदद की ज़रूरत है - नए पेजों या पुराने पेजों में बदलावों के बारे में रिपोर्ट करने के लिए।

Yandex.Webmaster क्या है और इसकी आवश्यकता क्यों है?

Yandex.वेबमास्टर है आधिकारिक सेवायांडेक्स से. आपको इसमें एक वेबसाइट जोड़नी होगी ताकि रोबोट को इसके अस्तित्व के बारे में पता चले। इसकी सहायता से संसाधन स्वामी (वेबमास्टर) यह साबित कर सकते हैं कि यह उनकी साइट है।

आप वेबमास्टर में भी देख सकते हैं:

  • रोबोट कब और कहाँ दाखिल हुआ;
  • उसने किन पृष्ठों को अनुक्रमित किया और किन को नहीं;
  • लोग कौन से कीवर्ड खोजते हैं?
  • क्या कोई तकनीकी त्रुटियाँ हैं?

इस सेवा के माध्यम से आप एक वेबसाइट स्थापित कर सकते हैं:क्षेत्र, माल की कीमतें निर्धारित करें, अपने संदेशों को चोरी से बचाएं। आप रोबोट से उन पेजों पर दोबारा जाने के लिए कह सकते हैं जहां आपने बदलाव किए हैं। Yandex.Webmaster https या किसी अन्य डोमेन पर जाना आसान बनाता है।

Yandex.Webmaster में नई वेबसाइट कैसे जोड़ें

वेबमास्टर पैनल पर जाएँ. "लॉगिन" पर क्लिक करें। आप वह लॉगिन और पासवर्ड दर्ज कर सकते हैं जिसका उपयोग आप यांडेक्स मेल में लॉग इन करने के लिए करते हैं।यदि आपके पास यह अभी तक नहीं है खाता, आपको रजिस्ट्रेशन करना होगा.

लॉग इन करने के बाद, आपको अतिरिक्त संसाधनों की सूची वाले एक पृष्ठ पर ले जाया जाएगा। यदि आपने पहले सेवा का उपयोग नहीं किया है, तो सूची खाली होगी। नया संसाधन जोड़ने के लिए, "+" बटन पर क्लिक करें।

अगले पृष्ठ पर, अपनी साइट का पता दर्ज करें और इसके अतिरिक्त होने की पुष्टि करें।

अंतिम चरण में आपको अपने अधिकारों की पुष्टि करने की आवश्यकता है- यांडेक्स को साबित करें कि आप मालिक हैं। इसे करने बहुत सारे तरीके हैं।

Yandex.Webmaster में किसी वेबसाइट के अधिकारों की पुष्टि कैसे करें

Yandex.Webmaster में अधिकारों की पुष्टि करने का सबसे आसान तरीका है साइट पर एक फ़ाइल जोड़ें. ऐसा करने के लिए, "HTML फ़ाइल" टैब पर क्लिक करें।

एक छोटी फ़ाइल डाउनलोड होगी.अब आपको इस फ़ाइल की आवश्यकता होगी, इसलिए इसे ऐसी जगह सहेजें जहां आप इसे देख सकें। उदाहरण के लिए, डेस्कटॉप पर. फ़ाइल का नाम न बदलें! इसमें कुछ भी बदलाव करने की जरूरत नहीं है.

अब इस फाइल को अपनी वेबसाइट पर अपलोड करें। आमतौर पर इसके लिए उपयोग किया जाता है फ़ाइल प्रबंधक, लेकिन उपयोगकर्ताओं को इसमें से कुछ भी करने की आवश्यकता नहीं है. बस बैक ऑफिस पर जाएं, "फ़ाइलें" पर क्लिक करें। फिर पृष्ठ के शीर्ष पर - "फ़ाइल जोड़ें"। वह फ़ाइल चुनें जिसे आपने पहले डाउनलोड किया था।

फिर Yandex.Webmaster पैनल पर वापस लौटें और "चेक" बटन पर क्लिक करें।पहुंच अधिकारों की सफलतापूर्वक पुष्टि करने के बाद, आपकी साइट जोड़े गए अधिकारों की सूची में दिखाई देगी। इस प्रकार, आपने Yandex.Webmaster को नई साइट के बारे में सूचित कर दिया है।

मेटा टैग Yandex.Webmaster

कभी-कभी ऊपर वर्णित विधि काम नहीं करती है, और मालिक वेबमास्टर में साइट के अधिकारों की पुष्टि नहीं कर सकते हैं। इस मामले में, आप दूसरी विधि आज़मा सकते हैं: टेम्पलेट में कोड की एक पंक्ति जोड़ें.

वेबमास्टर में "मेटा टैग" टैब पर जाएं. आपको एक पंक्ति दिखाई देगी जिसे HTML कोड में जोड़ना होगा।

उपयोगकर्ता तकनीकी सहायता से संपर्क कर सकते हैं और इस कोड को डालने के लिए कह सकते हैं। यह निःशुल्क पुनरीक्षण के भाग के रूप में किया जाएगा।

जब वे ऐसा करते हैं वेबमास्टर में, "चेक" बटन पर क्लिक करें. बधाई हो, आपने अपनी साइट को एक खोज इंजन में पंजीकृत कर लिया है!

Yandex.Webmaster का प्रारंभिक सेटअप

साइट को खोज में जोड़ दिया गया है, अब रोबोट निश्चित रूप से आपके पास आएगा और इसे अनुक्रमित करेगा। इसमें आमतौर पर 7 दिन तक का समय लगता है.

अपने साइटमैप में एक लिंक जोड़ें

रोबोट द्वारा संसाधन को तेजी से अनुक्रमित करने के लिए, वेबमास्टर में sitemap.xml फ़ाइल जोड़ें. इस फ़ाइल में संसाधन के सभी पृष्ठों के पते शामिल हैं।

ऑनलाइन स्टोर में यह फ़ाइल पहले से ही कॉन्फ़िगर है और इसे स्वचालित रूप से वेबमास्टर में जोड़ा जाना चाहिए। यदि ऐसा नहीं होता है, तो "अनुक्रमणिका" - "साइटमैप फ़ाइलें" अनुभाग में sitemap.xml का एक लिंक जोड़ें।

robots.txt जांचें

robots.txt फ़ाइल में उन पृष्ठों को इंगित करें जिन पर रोबोट को जाने की आवश्यकता नहीं है. ये कार्ट, चेकआउट, बैक ऑफिस और अन्य तकनीकी दस्तावेज़ हैं।

डिफ़ॉल्ट रूप से, यह robots.txt बनाता है, जिसे संशोधित करने की आवश्यकता नहीं है। बस किसी मामले में, हम रोबोट में त्रुटियों की जाँच करने की सलाह देते हैं। ऐसा करने के लिए, "टूल्स" - "रोबोट.txt का विश्लेषण" पर जाएँ।

साइट क्षेत्र सेट करें

"साइट सूचना" - "क्षेत्र" पृष्ठ पर, आप साइट का क्षेत्र निर्धारित कर सकते हैं। ऑनलाइन स्टोर के लिए, ये वे शहर, क्षेत्र और देश हैं जहां खरीदा गया सामान वितरित किया जाता है। यदि आपके पास कोई स्टोर नहीं है, बल्कि एक निर्देशिका या ब्लॉग है, तो यह क्षेत्र पूरी दुनिया होगी।

स्क्रीनशॉट में दिखाए अनुसार बिक्री क्षेत्र सेट करें:

वेबमास्टर और किस लिए उपयोगी है?

"खोज क्वेरीज़" पृष्ठ पर आप उन वाक्यांशों को देख सकते हैं जो खोज से आपके पास आते हैं।

"अनुक्रमणिका" अनुभाग इस बारे में जानकारी प्रदर्शित करता है कि रोबोट साइट पर कब था और उसे कितने पृष्ठ मिले। यदि आप इंस्टॉल करने और https पर स्विच करने का निर्णय लेते हैं तो "साइट मूविंग" उपधारा आपकी मदद करेगी। "पेज रीट्रैवर्सल" उपधारा भी अत्यंत उपयोगी है।इसमें आप रोबोट को उन पेजों के बारे में बता सकते हैं जिन पर जानकारी बदल गई है। फिर, आपकी अगली यात्रा पर, रोबोट पहले उन्हें अनुक्रमित करेगा।

"साइट सूचना" अनुभाग के "उत्पाद और मूल्य" पृष्ठ पर, आप अपने ऑनलाइन स्टोर के बारे में जानकारी प्रदान कर सकते हैं। ऐसा करने के लिए, संसाधन को YML प्रारूप में उत्पादों और कीमतों पर डेटा अपलोड करने के लिए कॉन्फ़िगर किया जाना चाहिए। पर सही सेटिंगकीमतें और डिलीवरी जानकारी उत्पाद पृष्ठों के खोज परिणामों में प्रदर्शित की जाएंगी।

यदि आप यांडेक्स सेवाओं में अपनी कंपनी की दृश्यता में सुधार करना चाहते हैं, तो आपको अनुभाग का उपयोग करना चाहिए " उपयोगी सेवाएँ». Yandex.Directory में, आप फ़ोन नंबर, अपने स्टोर का पता और खुलने का समय निर्दिष्ट कर सकते हैं।यह जानकारी सीधे यांडेक्स परिणामों में प्रदर्शित की जाएगी। यह आपको Yandex.Maps से भी जोड़ देगा।

Yandex.Metrica - इंटरनेट संसाधन के मालिक के लिए ट्रैफ़िक डेटा दिखाने वाला एक और महत्वपूर्ण उपकरण।साइट ट्रैफ़िक के आँकड़े और गतिशीलता विश्लेषण में आसान तालिकाओं, चार्ट और ग्राफ़ में प्रदर्शित किए जाते हैं।

Yandex.Webmaster और Yandex.Metrica सेवाओं से जुड़ने के बाद, आपको साइट की स्थिति और ट्रैफ़िक को प्रबंधित करने के लिए पर्याप्त मात्रा में जानकारी प्राप्त होगी। ये उन वेबसाइट मालिकों के लिए अपरिहार्य उपकरण हैं जो रूस में सबसे लोकप्रिय खोज इंजन में अपने संसाधनों को बढ़ावा देना चाहते हैं।

वेबसाइट प्रमोशन का अगला चरण हैएक समान सेवा के माध्यम से खोज कंसोल. बस इतना ही, आपकी पदोन्नति के लिए शुभकामनाएँ!

अनुक्रमण क्या है? यह एक रोबोट द्वारा आपकी साइट के पृष्ठों की सामग्री प्राप्त करने और उस सामग्री को खोज परिणामों में शामिल करने की प्रक्रिया है। यदि हम संख्याओं को देखें, तो इंडेक्सिंग रोबोट के डेटाबेस में खरबों वेबसाइट पेज पते शामिल हैं। हर दिन रोबोट ऐसे अरबों पतों का अनुरोध करता है।

लेकिन इंटरनेट को अनुक्रमित करने की इस पूरी बड़ी प्रक्रिया को छोटे चरणों में विभाजित किया जा सकता है:


सबसे पहले, इंडेक्सिंग रोबोट को पता होना चाहिए कि आपकी साइट पर एक पेज दिखाई दिया है। उदाहरण के लिए, इंटरनेट पर अन्य पेजों को अनुक्रमित करके, लिंक ढूंढ़कर, या सेट नेम्प डाउनलोड करके। हमने पेज के बारे में सीखा, जिसके बाद हम इस पेज को क्रॉल करने, साइट के इस पेज का अनुरोध करने के लिए आपके सर्वर को डेटा भेजने, सामग्री प्राप्त करने और इसे खोज परिणामों में शामिल करने की योजना बना रहे हैं।

यह पूरी प्रक्रिया आपकी वेबसाइट के साथ इंडेक्सिंग रोबोट के आदान-प्रदान की प्रक्रिया है। यदि अनुक्रमण रोबोट द्वारा भेजे गए अनुरोध व्यावहारिक रूप से नहीं बदलते हैं, और केवल पृष्ठ पता बदलता है, तो रोबोट के पृष्ठ अनुरोध पर आपके सर्वर की प्रतिक्रिया कई कारकों पर निर्भर करती है:

  • आपकी सीएमएस सेटिंग से;
  • होस्टिंग प्रदाता सेटिंग्स से;
  • मध्यवर्ती प्रदाता के कार्य से.

यह उत्तर बस बदल रहा है. सबसे पहले, किसी पृष्ठ का अनुरोध करते समय, आपकी साइट से रोबोट को निम्नलिखित सेवा प्रतिक्रिया प्राप्त होती है:


ये HTTP हेडर हैं. उनमें विभिन्न सेवा जानकारी होती है जो रोबोट को यह समझने की अनुमति देती है कि अब कौन सी सामग्री प्रसारित की जाएगी।

मैं पहले हेडर पर ध्यान केंद्रित करना चाहूंगा - यह HTTP प्रतिक्रिया कोड है जो इंडेक्सिंग रोबोट को उस पेज की स्थिति बताता है जिसे रोबोट ने अनुरोध किया था।

ऐसी कई दर्जन HTTP कोड स्थितियाँ हैं:


मैं आपको सबसे लोकप्रिय लोगों के बारे में बताऊंगा। सबसे आम प्रतिक्रिया कोड HTTP-200 है। पृष्ठ उपलब्ध है, इसे अनुक्रमित किया जा सकता है, खोज परिणामों में शामिल किया जा सकता है, सब कुछ ठीक है।

इस स्थिति का विपरीत HTTP-404 है. पेज साइट पर नहीं है, अनुक्रमणिका के लिए कुछ भी नहीं है, और खोज में शामिल करने के लिए कुछ भी नहीं है। साइटों की संरचना बदलते समय और आंतरिक पृष्ठों के पते बदलते समय, हम पुनर्निर्देशन के लिए 301 सर्वर स्थापित करने की सलाह देते हैं। वह बस रोबोट की ओर इशारा करेगा पुराना पृष्ठएक नए पते पर ले जाया गया और खोज परिणामों में नया पता शामिल करना आवश्यक है।

यदि पृष्ठ की सामग्री पिछली बार किसी रोबोट द्वारा पृष्ठ पर आने के बाद से नहीं बदली है, तो HTTP-304 कोड वापस करना सबसे अच्छा है। रोबोट समझ जाएगा कि खोज परिणामों में पृष्ठों को अपडेट करने की कोई आवश्यकता नहीं है और सामग्री भी स्थानांतरित नहीं की जाएगी।

यदि आपकी साइट केवल थोड़े समय के लिए उपलब्ध है, उदाहरण के लिए, सर्वर पर कुछ काम करते समय, HTTP-503 को कॉन्फ़िगर करना सबसे अच्छा है। यह रोबोट को संकेत देगा कि साइट और सर्वर फिलहाल अनुपलब्ध हैं, आपको थोड़ी देर बाद वापस आना होगा। अल्पकालिक अनुपलब्धता की स्थिति में, यह पृष्ठों को खोज परिणामों से बाहर होने से रोकेगा।

इन HTTP कोड और पेज स्थितियों के अलावा, आपको सीधे पेज की सामग्री भी प्राप्त करनी होगी। यदि नियमित विज़िटर के लिए पृष्ठ इस तरह दिखता है:


ये चित्र, पाठ, नेविगेशन, सब कुछ बहुत सुंदर है, फिर अनुक्रमण रोबोट के लिए कोई भी पृष्ठ केवल स्रोत कोड, HTML कोड का एक सेट है:


विभिन्न मेटा टैग, टेक्स्ट सामग्री, लिंक, स्क्रिप्ट, सभी प्रकार की बहुत सारी जानकारी। रोबोट इसे एकत्र करता है और खोज परिणामों में शामिल करता है। ऐसा लगता है कि सब कुछ सरल है: उन्होंने एक पृष्ठ का अनुरोध किया, स्थिति प्राप्त की, सामग्री प्राप्त की, और इसे खोज में शामिल किया।

लेकिन यह अकारण नहीं है कि यांडेक्स खोज सेवा को वेबमास्टरों और साइट मालिकों से 500 से अधिक पत्र प्राप्त होते हैं जिनमें कहा गया है कि सर्वर की प्रतिक्रिया के साथ कुछ समस्याएं उत्पन्न हुई हैं।

इन सभी समस्याओं को दो भागों में बाँटा जा सकता है:

ये HTTP प्रतिक्रिया कोड के साथ समस्याएँ और पृष्ठों की प्रत्यक्ष सामग्री के साथ HTML कोड की समस्याएँ हैं। इन समस्याओं के बहुत सारे कारण हो सकते हैं। सबसे आम बात यह है कि इंडेक्सिंग रोबोट को होस्टिंग प्रदाता द्वारा ब्लॉक कर दिया जाता है।


उदाहरण के लिए, आपने एक वेबसाइट लॉन्च की और एक नया अनुभाग जोड़ा। रोबोट आपकी साइट पर अधिक बार आना शुरू कर देता है, जिससे सर्वर पर लोड बढ़ जाता है। होस्टिंग प्रदाता इसे अपनी निगरानी में देखता है, इंडेक्सिंग रोबोट को ब्लॉक कर देता है, और इसलिए रोबोट आपकी साइट तक नहीं पहुंच सकता है। आप अपने संसाधन पर जाएं - सब कुछ ठीक है, सब कुछ काम करता है, पृष्ठ सुंदर हैं, सब कुछ खुलता है, सब कुछ बढ़िया है, लेकिन रोबोट साइट को अनुक्रमित नहीं कर सकता है। यदि साइट अस्थायी रूप से अनुपलब्ध है, उदाहरण के लिए, यदि आप भुगतान करना भूल गए हैं डोमेन नाम, साइट कई दिनों से बंद है। रोबोट साइट पर आता है, यह पहुंच योग्य नहीं है, ऐसी स्थितियों में यह थोड़ी देर के बाद सचमुच खोज परिणामों से गायब हो सकता है।

ग़लत सीएमएस सेटिंग्सउदाहरण के लिए, अपडेट करते समय या किसी अन्य सीएमएस पर स्विच करते समय, डिज़ाइन अपडेट करते समय, सेटिंग्स गलत होने पर आपकी साइट के पेज खोज परिणामों से गायब भी हो सकते हैं। उदाहरण के लिए, एक निषेधात्मक मेटा टैग की उपस्थिति सोर्स कोडसाइट पृष्ठ, विहित विशेषता की गलत सेटिंग। सुनिश्चित करें कि आपके द्वारा साइट पर किए गए सभी परिवर्तनों के बाद, पृष्ठ रोबोट के लिए पहुंच योग्य हों।

यांडेक्स टूल इसमें आपकी मदद करेगा। सर्वर प्रतिक्रिया की जाँच करने के लिए वेबमास्टर को:


आप देख सकते हैं कि आपका सर्वर रोबोट को कौन से HTTP हेडर और पेजों की सामग्री लौटाता है।


"अनुक्रमणिका" अनुभाग में आँकड़े शामिल हैं जहाँ आप देख सकते हैं कि कौन से पृष्ठ बाहर रखे गए हैं, इन संकेतकों में परिवर्तन की गतिशीलता, और विभिन्न सॉर्टिंग और फ़िल्टरिंग कर सकते हैं।


इसके अलावा, मैंने आज पहले ही इस अनुभाग, "साइट डायग्नोस्टिक्स" अनुभाग के बारे में बात की थी। यदि आपकी साइट किसी रोबोट के लिए अनुपलब्ध हो जाती है, तो आपको संबंधित अधिसूचना और अनुशंसाएं प्राप्त होंगी। इसे कैसे सुधारा जा सकता है? यदि ऐसी कोई समस्या उत्पन्न नहीं होती है, साइट पहुंच योग्य है, कोड 200 को पूरा करती है, और सही सामग्री रखती है, तो रोबोट शुरू होता है स्वचालित मोडउन सभी पृष्ठों पर जाएँ जिन्हें वह पहचानता है। इससे हमेशा वांछित परिणाम नहीं मिलते, इसलिए रोबोट की गतिविधियों को एक निश्चित तरीके से सीमित किया जा सकता है। इसके लिए एक robots.txt फ़ाइल है। हम इसके बारे में अगले भाग में बात करेंगे।

रोबोट.txt

robots.txt फ़ाइल स्वयं छोटी है सामग्री या लेख दस्तावेज़, यह साइट के रूट फ़ोल्डर में स्थित है और इसमें इंडेक्सिंग रोबोट के लिए सख्त नियम हैं जिनका साइट को क्रॉल करते समय पालन किया जाना चाहिए। robots.txt फ़ाइल का लाभ यह है कि इसका उपयोग करने के लिए आपको किसी विशेष या विशिष्ट ज्ञान की आवश्यकता नहीं है।

आपको बस नोटपैड खोलना है, कुछ प्रारूप नियम दर्ज करना है, और फिर फ़ाइल को सर्वर पर सहेजना है। एक दिन के भीतर ही रोबोट इन नियमों का उपयोग करना शुरू कर देता है।

यदि हम एक साधारण robots.txt फ़ाइल का उदाहरण लेते हैं, तो यह अगली स्लाइड पर है:


"उपयोगकर्ता-एजेंट:" निर्देश दिखाता है कि नियम किस रोबोट के लिए है, निर्देशों और सहायक साइटमैप और होस्ट निर्देशों को अनुमति/अस्वीकार करता है। थोड़ा सिद्धांत, मैं अभ्यास की ओर बढ़ना चाहूंगा।

कुछ महीने पहले मैं एक पेडोमीटर खरीदना चाहता था, इसलिए मैंने यांडेक्स का रुख किया। चुनाव में मदद के लिए बाज़ार। यांडेक्स के मुख्य पृष्ठ से यांडेक्स में ले जाया गया। बाजार और पहुंच गए होम पेजसेवा।


नीचे आप उस पृष्ठ का पता देख सकते हैं जिस पर मैं गया था। सेवा के पते ने साइट पर एक उपयोगकर्ता के रूप में मेरी पहचान भी जोड़ दी।

फिर मैं "कैटलॉग" अनुभाग पर गया


मैंने वांछित उपधारा का चयन किया और सॉर्टिंग पैरामीटर, मूल्य, फ़िल्टर, सॉर्ट करने का तरीका और निर्माता को कॉन्फ़िगर किया।

मुझे उत्पादों की एक सूची प्राप्त हुई, और पृष्ठ का पता पहले ही बढ़ चुका है।

मैं वांछित उत्पाद पर गया, "कार्ट में जोड़ें" बटन पर क्लिक किया और चेकआउट जारी रखा।

मेरी छोटी सी यात्रा के दौरान, पेज के पते एक निश्चित तरीके से बदल गए।


उनमें सेवा पैरामीटर जोड़े गए, जिन्होंने मुझे एक उपयोगकर्ता के रूप में पहचाना, सॉर्टिंग सेट की, और साइट के मालिक को संकेत दिया कि मैं साइट के इस या उस पेज पर कहां से आया हूं।

मुझे लगता है कि ऐसे पेज, सेवा पेज, खोज इंजन उपयोगकर्ताओं के लिए बहुत दिलचस्प नहीं होंगे। लेकिन यदि वे अनुक्रमण रोबोट के लिए उपलब्ध हैं, तो उन्हें खोज में शामिल किया जा सकता है, क्योंकि रोबोट अनिवार्य रूप से एक उपयोगकर्ता की तरह व्यवहार करता है।

वह एक पेज पर जाता है, एक लिंक देखता है जिस पर वह क्लिक कर सकता है, उस पर जाता है, डेटा को अपने रोबोट के डेटाबेस में लोड करता है और पूरी साइट को क्रॉल करना जारी रखता है। ऐसे पतों की इस श्रेणी में उपयोगकर्ताओं का व्यक्तिगत डेटा भी शामिल है, उदाहरण के लिए, जैसे डिलीवरी जानकारी या उपयोगकर्ताओं की संपर्क जानकारी।

स्वाभाविक रूप से, उन पर प्रतिबंध लगाना बेहतर है। robots.txt फ़ाइल बिल्कुल इसी में आपकी सहायता करेगी। आप आज शाम वेबमास्टर के अंत में अपनी वेबसाइट पर जा सकते हैं, क्लिक कर सकते हैं और देख सकते हैं कि वास्तव में कौन से पेज उपलब्ध हैं।

robots.txt की जाँच करने के लिए वेबमास्टर में एक विशेष उपकरण है:


आप डाउनलोड कर सकते हैं, पृष्ठ पते दर्ज कर सकते हैं, देख सकते हैं कि वे रोबोट के लिए सुलभ हैं या नहीं।


कुछ परिवर्तन करें, देखें कि रोबोट इन परिवर्तनों पर कैसे प्रतिक्रिया करता है।

robots.txt के साथ काम करते समय त्रुटियाँ

इस तरह के सकारात्मक प्रभाव के अलावा - सेवा पृष्ठों को बंद करना, robots.txt अगर गलत तरीके से संभाला जाए तो एक क्रूर मजाक भी खेल सकता है।

सबसे पहले, robots.txt का उपयोग करते समय सबसे आम समस्या वास्तव में आवश्यक साइट पेजों का बंद होना है, जिन्हें खोज में होना चाहिए और प्रश्नों के लिए दिखाया जाना चाहिए। इससे पहले कि आप robots.txt में बदलाव करें, यह जांचना सुनिश्चित करें कि जिस पेज को आप बंद करना चाहते हैं वह खोज क्वेरी के लिए दिखाई दे रहा है या नहीं। शायद कुछ मापदंडों वाला एक पृष्ठ खोज परिणामों में है और विज़िटर खोज से उस पर आते हैं। इसलिए, robots.txt का उपयोग करने और उसमें परिवर्तन करने से पहले जांच अवश्य कर लें।

दूसरे, यदि आपकी साइट सिरिलिक पते का उपयोग करती है, तो आप उन्हें सीधे robots.txt में इंगित नहीं कर पाएंगे; उन्हें एन्कोड किया जाना चाहिए; चूँकि robots.txt एक अंतरराष्ट्रीय मानक है जिसका पालन सभी अनुक्रमण रोबोट करते हैं, इसलिए उन्हें निश्चित रूप से कोड करने की आवश्यकता होगी। सिरिलिक वर्णमाला को स्पष्ट रूप से निर्दिष्ट करना संभव नहीं है।

तीसरी सबसे लोकप्रिय समस्या विभिन्न खोज इंजनों के विभिन्न रोबोटों के लिए अलग-अलग नियम हैं। एक इंडेक्सिंग रोबोट के लिए, सभी इंडेक्सिंग पेज बंद थे, दूसरे के लिए, कुछ भी बंद नहीं था। इसके परिणामस्वरूप, एक खोज इंजन में सब कुछ ठीक है, वांछित पृष्ठ खोज में है, लेकिन दूसरे खोज इंजन में कचरा, विभिन्न कचरा पृष्ठ और कुछ और हो सकता है। यह सुनिश्चित करना सुनिश्चित करें कि यदि आप प्रतिबंध लगाते हैं, तो यह सभी अनुक्रमण रोबोटों के लिए किया जाना चाहिए।

चौथी सबसे लोकप्रिय समस्या क्रॉल-विलंब निर्देश का उपयोग है जब यह आवश्यक नहीं है। यह निर्देश आपको अनुक्रमण रोबोट से अनुरोधों की शुद्धता को प्रभावित करने की अनुमति देता है। यह एक व्यावहारिक उदाहरण है, एक छोटी वेबसाइट, इसे एक छोटी होस्टिंग पर रखा, सब कुछ ठीक है। हमने एक बड़ा कैटलॉग जोड़ा, रोबोट आया, बहुत सारे नए पेज देखे, साइट को अधिक बार एक्सेस करना शुरू किया, लोड बढ़ाया, इसे डाउनलोड किया और साइट अप्राप्य हो गई। हम क्रॉल-विलंब निर्देश सेट करते हैं, रोबोट इसे देखता है, लोड कम करता है, सब कुछ ठीक है, साइट काम करती है, सब कुछ पूरी तरह से अनुक्रमित है, यह खोज परिणामों में है। कुछ समय बाद, साइट और भी बड़ी हो जाती है, एक नई होस्टिंग में स्थानांतरित हो जाती है जो बड़ी संख्या में अनुरोधों के साथ इन अनुरोधों से निपटने के लिए तैयार होती है, और वे क्रॉल-विलंब निर्देश को हटाना भूल जाते हैं। परिणामस्वरूप, रोबोट समझता है कि आपकी साइट पर बहुत सारे पेज दिखाई दिए हैं, लेकिन केवल स्थापित निर्देश के कारण उन्हें अनुक्रमित नहीं कर सकता है। यदि आपने कभी क्रॉल-विलंब निर्देश का उपयोग किया है, तो सुनिश्चित करें कि यह अब वहां नहीं है और आपकी सेवा इंडेक्सिंग रोबोट से लोड को संभालने के लिए तैयार है।


वर्णित कार्यक्षमता के अलावा, robots.txt फ़ाइल आपको दो बहुत महत्वपूर्ण कार्यों को हल करने की अनुमति देती है - साइट पर डुप्लिकेट से छुटकारा पाएं और मुख्य दर्पण का पता इंगित करें। यह वही है जिसके बारे में हम अगले भाग में बात करेंगे।

दोगुना हो जाता है


डुप्लिकेट से हमारा तात्पर्य एक ही साइट के कई पृष्ठों से है जिनमें बिल्कुल समान सामग्री होती है। सबसे आम उदाहरण पते के अंत में स्लैश वाले और बिना स्लैश वाले पृष्ठ हैं। साथ ही, डुप्लिकेट को विभिन्न श्रेणियों में एक ही उत्पाद के रूप में समझा जा सकता है।

उदाहरण के लिए, रोलर स्केट्स लड़कियों के लिए हो सकते हैं, लड़कों के लिए, एक ही मॉडल एक ही समय में दो खंडों में हो सकता है। और तीसरा, ये महत्वहीन पैरामीटर वाले पृष्ठ हैं। जैसा कि यांडेक्स के उदाहरण में है। बाज़ार इस पृष्ठ को "सत्र आईडी" के रूप में परिभाषित करता है; यह पैरामीटर सैद्धांतिक रूप से पृष्ठ की सामग्री को नहीं बदलता है।

डुप्लिकेट का पता लगाने और यह देखने के लिए कि रोबोट किन पेजों तक पहुंच रहा है, आप यांडेक्स का उपयोग कर सकते हैं। वेबमास्टर.


आँकड़ों के अलावा, उन पृष्ठों के पते भी हैं जिन्हें रोबोट ने डाउनलोड किया है। आप कोड और अंतिम कॉल देखें।

डुप्लिकेट से होने वाली समस्याएँ

डबल्स में इतना बुरा क्या है?

सबसे पहले, रोबोट साइट के बिल्कुल समान पृष्ठों तक पहुंचना शुरू कर देता है, जो न केवल आपके सर्वर पर एक अतिरिक्त लोड बनाता है, बल्कि पूरी साइट के क्रॉलिंग को भी प्रभावित करता है। रोबोट डुप्लिकेट पृष्ठों पर ध्यान देना शुरू कर देता है, न कि उन पृष्ठों पर जिन्हें अनुक्रमित करने और खोज परिणामों में शामिल करने की आवश्यकता होती है।


दूसरी समस्या यह है कि डुप्लिकेट पृष्ठ, यदि वे रोबोट के लिए पहुंच योग्य हैं, तो खोज परिणामों में समाप्त हो सकते हैं और प्रश्नों के लिए मुख्य पृष्ठों के साथ प्रतिस्पर्धा कर सकते हैं, जो स्वाभाविक रूप से, कुछ प्रश्नों के लिए साइट को नकारात्मक रूप से प्रभावित कर सकता है।

आप डुप्लिकेट से कैसे निपट सकते हैं?

सबसे पहले, मैं "कैनोनिकल" टैग का उपयोग करने की अनुशंसा करता हूं रोबोट को मुख्य, विहित पृष्ठ पर इंगित करने के लिए, जिसे अनुक्रमित किया जाना चाहिए और खोज क्वेरी में पाया जाना चाहिए।

दूसरे मामले में, आप 301 सर्वर रीडायरेक्ट का उपयोग कर सकते हैं, उदाहरण के लिए, पते के अंत में स्लैश वाली और बिना स्लैश वाली स्थितियों के लिए। हमने पुनर्निर्देशन सेट किया है - कोई डुप्लिकेट नहीं है।


और तीसरा, जैसा कि मैंने पहले ही कहा, यह robots.txt फ़ाइल है। महत्वहीन मापदंडों से छुटकारा पाने के लिए आप इनकार निर्देश और क्लीन-परम निर्देश दोनों का उपयोग कर सकते हैं।

साइट दर्पण

दूसरा कार्य जो robots.txt आपको हल करने की अनुमति देता है वह है रोबोट को मुख्य दर्पण के पते पर इंगित करना।


मिरर साइटों का एक समूह है जो बिल्कुल समान हैं, डुप्लिकेट की तरह, केवल दो साइटें अलग हैं। वेबमास्टर्स को आम तौर पर दो मामलों में दर्पण का सामना करना पड़ता है - जब वे स्थानांतरित करना चाहते हैं नया डोमेन, या जब उपयोगकर्ता को कई वेबसाइट पते उपलब्ध कराने की आवश्यकता होती है।

उदाहरण के लिए, आप जानते हैं कि जब उपयोगकर्ता एड्रेस बार में आपका पता या आपकी वेबसाइट का पता टाइप करते हैं, तो वे अक्सर वही गलती करते हैं - वे गलत वर्तनी, गलत अक्षर डालते हैं, या कुछ और करते हैं। आप उपयोगकर्ताओं को होस्टिंग प्रदाता से स्टब नहीं, बल्कि वह साइट दिखाने के लिए एक अतिरिक्त डोमेन खरीद सकते हैं जिस पर वे वास्तव में जाना चाहते थे।

आइए पहले बिंदु पर ध्यान केंद्रित करें, क्योंकि दर्पण के साथ काम करते समय सबसे अधिक समस्याएं इसी के साथ उत्पन्न होती हैं।

मैं आपको निम्नलिखित निर्देशों के अनुसार संपूर्ण स्थानांतरण प्रक्रिया को पूरा करने की सलाह देता हूं। एक छोटा निर्देश जो आपको नए डोमेन नाम पर जाने पर विभिन्न समस्याओं से बचने की अनुमति देगा:

सबसे पहले, आपको साइटों को इंडेक्सिंग रोबोट के लिए सुलभ बनाना होगा और उन पर बिल्कुल समान सामग्री डालनी होगी। यह भी सुनिश्चित करें कि रोबोट को साइटों के अस्तित्व के बारे में पता हो। सबसे आसान तरीका उन्हें Yandex में जोड़ना है। वेबमास्टर और उनके अधिकारों की पुष्टि करें।

दूसरे, होस्ट निर्देश का उपयोग करते हुए, रोबोट को मुख्य दर्पण के पते पर इंगित करें - जिसे अनुक्रमित किया जाना चाहिए और खोज परिणामों में होना चाहिए।

हम सभी संकेतकों को पुरानी साइट से नई साइट पर जोड़ने और स्थानांतरित करने की प्रतीक्षा कर रहे हैं।


जिसके बाद आप पुराने पते से नए पते पर पुनर्निर्देशन सेट कर सकते हैं। एक सरल निर्देश, यदि आप घूम रहे हैं तो इसका उपयोग अवश्य करें। मुझे आशा है कि इसमें कोई समस्या नहीं होगी
चलती।

लेकिन, स्वाभाविक रूप से, दर्पण के साथ काम करते समय त्रुटियां उत्पन्न होती हैं।

सबसे पहले, सबसे ज्यादा मुखय परेशानी- यह मुख्य दर्पण के पते पर अनुक्रमण रोबोट के लिए स्पष्ट निर्देशों की अनुपस्थिति है, वह पता जो खोज में होना चाहिए। अपनी साइटों पर जांचें कि क्या उनके robots.txt में एक होस्ट निर्देश है, और यह ठीक उसी पते की ओर इशारा करता है जिसे आप खोज में देखना चाहते हैं।

दूसरी सबसे लोकप्रिय समस्या दर्पणों के मौजूदा समूह में मुख्य दर्पण को बदलने के लिए पुनर्निर्देशन का उपयोग करना है। क्या हो रहा है? पुराना पता, चूंकि यह रीडायरेक्ट करता है, रोबोट द्वारा अनुक्रमित नहीं किया जाता है और खोज परिणामों से बाहर रखा जाता है। इस मामले में, नई साइट खोज में दिखाई नहीं देती है, क्योंकि यह मुख्य दर्पण नहीं है। आप ट्रैफ़िक खो देते हैं, आप विज़िटर खो देते हैं, मुझे लगता है कि किसी को इसकी आवश्यकता नहीं है।


और तीसरी समस्या चलते समय दर्पणों में से एक की दुर्गमता है। इस स्थिति में सबसे आम उदाहरण तब है जब उन्होंने साइट की सामग्री को एक नए पते पर कॉपी किया, लेकिन पुराना पता बस अक्षम कर दिया गया, उन्होंने डोमेन नाम के लिए भुगतान नहीं किया और यह अनुपलब्ध हो गया। स्वाभाविक रूप से, ऐसी साइटों का विलय नहीं किया जाएगा; उन्हें अनुक्रमणिका रोबोट के लिए सुलभ होना चाहिए।

कार्य में उपयोगी लिंक:

  • अधिक उपयोगी जानकारीआप Yandex.Help सेवा में पाएंगे।
  • वे सभी उपकरण जिनके बारे में मैंने बात की और उससे भी अधिक - Yandex.Webmaster का एक बीटा संस्करण है।

सवालों पर जवाब

"रिपोर्ट के लिए धन्यवाद। क्या robots.txt में रोबोट के लिए CSS फ़ाइलों की अनुक्रमणिका को अक्षम करना आवश्यक है या नहीं?

हम इस समय उन्हें बंद करने की अनुशंसा नहीं करते हैं. हाँ, सीएसएस जावास्क्रिप्ट बेहतर हैछोड़ें, क्योंकि अब हम यह सुनिश्चित करने के लिए काम कर रहे हैं कि इंडेक्सिंग रोबोट आपकी साइट पर स्क्रिप्ट और शैलियों दोनों को पहचानना शुरू कर दे, और देखें कि एक विज़िटर एक नियमित ब्राउज़र से कैसे करता है।

"मुझे बताओ, यदि साइट यूआरएल पुराने और नए के लिए समान हैं, तो क्या यह सामान्य है?"

कोई बात नहीं। मूलतः, आप बस डिज़ाइन अपडेट करें, कुछ सामग्री जोड़ें।

“साइट में एक श्रेणी है और इसमें कई पृष्ठ शामिल हैं: उदाहरण के लिए, स्लैश, पृष्ठ 1, पृष्ठ 2, 10 तक। सभी पृष्ठों पर समान श्रेणी का पाठ है, और यह डुप्लिकेट निकला। क्या यह पाठ डुप्लिकेट होगा या इसे किसी तरह बंद कर दिया जाना चाहिए, दूसरे और आगे के पृष्ठों पर एक नया सूचकांक?

सबसे पहले, चूँकि पहले पृष्ठ पर पेजिनेशन और दूसरे पृष्ठ पर सामग्री आम तौर पर भिन्न होती है, इसलिए वे डुप्लिकेट नहीं होंगे। लेकिन आपको यह उम्मीद करनी होगी कि दूसरे, तीसरे और आगे के पृष्ठांकन पृष्ठ खोज में आ सकते हैं और कुछ प्रासंगिक क्वेरी के लिए दिखाई दे सकते हैं। पृष्ठांकन पृष्ठों में बेहतर, मैं विहित विशेषता का उपयोग करने की अनुशंसा करूंगा, सर्वोत्तम स्थिति में - उस पृष्ठ पर जिस पर सभी उत्पाद एकत्र किए जाते हैं ताकि रोबोट खोज में पृष्ठांकन पृष्ठों को शामिल न करे। लोग अक्सर पेजिनेशन के पहले पृष्ठ पर कैनोनिकल का उपयोग करते हैं। रोबोट दूसरे पेज पर आता है, उत्पाद देखता है, टेक्स्ट देखता है, पेज को खोज में शामिल नहीं करता है और इस विशेषता के कारण समझता है कि यह पहला पेजिनेशन पेज है जिसे खोज परिणामों में शामिल किया जाना चाहिए। कैनोनिकल का उपयोग करें, और पाठ को ही बंद कर दें, मुझे लगता है कि इसकी कोई आवश्यकता नहीं है।

स्रोत (वीडियो): साइट इंडेक्सिंग कैसे सेट करें- अलेक्जेंडर स्मिरनोव

मैगोमेड चेरबिज़ेव

क्या आपने कोई वेबसाइट बनाई है, लेकिन उसे खोज इंजन में नहीं ढूंढ पा रहे हैं? कोई बात नहीं! इस सामग्री में आप सीखेंगे कि कम से कम समय में यांडेक्स और Google में किसी वेबसाइट को कैसे अनुक्रमित किया जाए। खोज इंजन सूचकांक में शीघ्रता से शामिल होने के लाभों के बारे में बात करना शायद अनावश्यक है। आख़िरकार, कोई भी यह समझता है कि जितनी जल्दी उसकी वेबसाइट खोज परिणामों में दिखाई जाएगी, उतनी ही तेज़ी से नए ग्राहक सामने आएंगे। और यह काम करने के लिए, आपको खोज इंजन डेटाबेस में जाना होगा।

वैसे, धन्यवाद सही दृष्टिकोण, हमारी साइट पर नई सामग्रियां काफी अच्छी हैं, और सबसे महत्वपूर्ण बात यह है कि वे हमेशा खोज इंजन द्वारा तुरंत अनुक्रमित की जाती हैं। शायद आप खोज बार में संबंधित अनुरोध का उपयोग करने के बाद इस पृष्ठ पर आए हों। आइए गीत के बोल से अभ्यास की ओर आगे बढ़ें।

कैसे पता करें कि कोई साइट अनुक्रमित है?

पहली चीज़ जो आपको करने की ज़रूरत है वह यह पता लगाना है कि साइट खोज इंजन द्वारा अनुक्रमित है या नहीं। ऐसा हो सकता है कि साइट आपके द्वारा दर्ज की गई क्वेरी की खोज के पहले पृष्ठ पर न हो। ये उच्च-मात्रा वाले प्रश्न हो सकते हैं जिन्हें दिखाने के लिए काम करने की आवश्यकता है एसईओ प्रमोशन, और न केवल एक वेबसाइट बनाएं और लॉन्च करें।

इसलिए, जाँच करने के लिए, हम उन सभी खोज इंजनों पर जाते हैं, जिन पर जाना उचित है ( यांडेक्स, गूगल, मेल, रैम्बलर) और लाइन तक प्रश्न खोजनासाइट का पता दर्ज करें.

यदि आपका संसाधन अभी तक अनुक्रमित नहीं किया गया है, तो खोज परिणामों में कुछ भी नहीं दिखाया जाएगा, या अन्य साइटें दिखाई देंगी।

यांडेक्स में किसी साइट को कैसे अनुक्रमित करें?

सबसे पहले, हम आपको बताएंगे कि Yandex में किसी वेबसाइट को कैसे अनुक्रमित किया जाए। लेकिन अपना संसाधन जोड़ने से पहले, जांच लें कि यह सही ढंग से काम करता है, सभी उपकरणों पर सही ढंग से खुलता है और केवल इसमें शामिल है अद्वितीय सामग्री. उदाहरण के लिए, यदि आप विकास चरण में कोई साइट जोड़ते हैं, तो आप आसानी से फ़िल्टर के अंतर्गत आ सकते हैं - हमारे साथ एक बार ऐसा हुआ था और हमें यांडेक्स को यह समझने के लिए कि हमारे पास एक उच्च-गुणवत्ता वाली साइट है और प्रतिबंध हटाने के लिए पूरे एक महीने तक इंतजार करना पड़ा। .

एक नई साइट के बारे में यांडेक्स को सूचित करना आवश्यक है इसे Yandex वेबमास्टर में जोड़ेंऔर यांडेक्स मेट्रिका स्थापित करें, पहला उपकरण इसके लिए जिम्मेदार है अतिरिक्त जानकारीसंसाधन के बारे में ( क्षेत्र, संरचना, त्वरित लिंक) और साइट ऑर्गेनिक परिणामों में कैसी दिखती है, साइट पर डेटा एकत्र करने के लिए दूसरा ( उपस्थिति, व्यवहार, आदि), जो, हमारे अनुभव के अनुसार, साइट की अनुक्रमणिका और खोज में उसकी स्थिति को भी प्रभावित करता है। इसके अलावा, एक साइटमैप बनाना और उसे वेबमास्टर्स पैनल में इंगित करना सुनिश्चित करें।

Google में किसी साइट को कैसे इंडेक्स करें?

अक्सर, Google स्वयं नई साइटें तुरंत खोज लेता है और उन्हें खोज में डाल देता है, लेकिन Google के आने और हमारे लिए सभी काम करने का इंतजार करना बहुत ही अहंकारपूर्ण है, तो आइए जानें कि किसी साइट को Google में कैसे अनुक्रमित किया जाए।

साइटें जुड़ने के बाद, इसे आगे बढ़ना चाहिए 3 से 7 दिन तक, इससे पहले कि सर्च इंजन डेटा अपडेट करें और साइट को इंडेक्स करें।

आप हमेशा चाहते हैं कि नए वेबसाइट पेज जल्द से जल्द खोज परिणामों में दिखाई दें, और इसके लिए वेबसाइट पेजों के अनुक्रमण को तेज करने के कई गुप्त (और बहुत सरल) तरीके हैं। खोज इंजन.

3. पैराग्राफ 2 में वर्णित हेरफेर करने के लिए, केवल Google सर्च इंजन के लिए, सर्च कंसोल पर जाएं। "स्कैन" चुनें और "Googlebot की तरह देखें"-पता जोड़ें नया पृष्ठऔर "स्कैन" पर क्लिक करें, जिसके बाद हम अनुक्रमण का अनुरोध करते हैं।

साइट अनुक्रमण विश्लेषण

अंत में, यह ध्यान दिया जाना चाहिए कि खोज इंजन में साइट के सफल अनुक्रमण के बाद भी, काम यहीं समाप्त नहीं होता है। समय-समय पर साइट की अनुक्रमणिका का विश्लेषण करना आवश्यक है, साथ ही लोकप्रिय प्रश्नों के लिए पदों को हटाना भी आवश्यक है। यह आपको अपनी उंगली को पल्स पर रखने की अनुमति देगा और ऐसी स्थिति में नहीं आएगा जहां ऑर्गेनिक खोज परिणामों से ट्रैफ़िक का एक महत्वपूर्ण हिस्सा गायब हो गया हो।

ऐसा कई पुरानी साइटों के साथ हुआ, जो रिलीज़ के बाद पुराने प्रचार तरीकों का इस्तेमाल करती थीं यांडेक्स एल्गोरिथम बैडेन-बैडेन. उसी समय, यांडेक्स ने पहले ही घोषणा कर दी थी कि वह इस एल्गोरिदम को लॉन्च कर रहा है और अति-अनुकूलित पृष्ठों को खोज से बाहर रखा जाएगा, जबकि Google कभी भी नए एल्गोरिदम जारी करने की रिपोर्ट नहीं करता है। इसलिए, केवल अथक निगरानी ही आपको विषय नेता बने रहने या बनने की अनुमति देगी!



मित्रों को बताओ