Blogger के लिए Custom Robots txt File कैसे Generate करे

ब्लॉगर मे custom robots.txt कैसे add kare

Custom Robots.txt Blogger blog के लिए कैसे Generate करे इसके बारे में हमने इस पोस्ट में बताया है जिससे आपकी वेबसाइट सर्च रिजल्ट में अच्छेसे क्रॉल होगी. इसके अलावा हमने पिछले एक post मे discussed किया था की कैसे आप blogger मे Custom Robots Header Tags की सेटिंग कर सकते हो. अगर आपने वो पोस्ट देखी होगी तो आप लोगो को पता चल गया होगा की इसकी search rankings मे कितनी इम्पोर्टेंस हैं.

इसके लिए आज हम ऐसेही एक नए useful टॉपिक पर लिख रहे हैं जिसको ब्लॉगिंग की term मे Robots.txt कहते हैं.

ब्लॉगर मे custom robots.txt कैसे add kare

Blogger मे इसे Custom Robots.txt कहा जाता हैं जिसका मतलब हैं की आप अपने हिसाब से इस फ़ाइल को customize कर सकते हो (you can customize file according to your choice)

आज के इस tutorial मे हम इसी topic को discuss करने वाले हैं और मैं आपको विस्तार मे बताऊंगा की इसके use और benefits क्या हैं.

इसके अलावा आप कैसे अपने blogger account मे custom robots.txt फ़ाइल को add कर सकते हो इसके बारे मे भी बताऊंगा. पर इसके पहले ये समझ ले की Robots.txt फ़ाइल क्या होती हैं.

Robots.txt क्या हैं?

​Robots.txt एक text file हैं जिसमे कुछ सिंपल लाइन ऑफ़ कोड होता हैं. ये code हमारे website या blog’s server पर store होता हैं जो web crawlers को inform करता हैं की कैसे आपके वेबसाइट को और उसके कंटेंट्स को सर्च रिजल्ट मे इंडेक्स और क्रॉल करना हैं|

इसका अर्थ हैं की आप अपने वेबसाइट के किसी भी वेबपेज को अपने ब्लॉग पर restrict कर सकते हो, जिससे की web crawlers ज़ब scan करेंगे तब आपकी website के बारे मे उनको को पता चले और आपके पेजेस सर्च इंजन पर indexed ना हो.

for example, आपके website के blog labels page, demo page या फिर कोनसा भी पेज जो index करना इम्पोर्टेन्ट नहीं हैं वो आप इसके जरिये सर्च होने से हाईड कर सकते हो.

आसान तरीखे से कहा जाये तो search engine bots जब वेबसाइट और ब्लॉग पर आते हैं, तो वे robots.txt file को फॉलो करते है और कंटेंट को crawl करते हैं। लेकिन आपकी साईट में Robots.txt file नहीं होगी, तो सर्च इंजन Bots आपके वेबसाइट के सभी कंटेंट को index और crawl करना शुरू कर देंगे जिन्हें आप Index करना नहीं चाहते हैं।

हमेशा याद रखे की search crawlers, webpage को crawl करने से पहले robots.txt files को scan करते है इसलिए इस code का आपके site मे होना बहुत जरूरी हैं.

Robots.txt के फायदे

देखा जाये तो robots.txt के बहुत से फायदे हैं पर यहां पर मैंने कुछ महत्वपूर्ण फायदों को बताया हैं जिसे आपको जानना जरूरी हैं.

  • सर्च इंजन Bots को बताता है कि साइट के किस भाग को Crawl और Index करना है और किस भाग को नहीं.
  • इसके इस्तेमाल से sensitive information को private रखा जा सकता हैं.
  • किसी खास फाइल, फोल्डर, इमेज, pdf आदि को सर्च इंजन में Index होने से रोका जा सकता है।
  • कभी कभी सर्च इंजन क्रॉलर आपके site को इस तरह क्रॉल करते है, की जिससे आपकी साईट performance पर असर पड़ता है। लेकिन आप अपने robots.txt file में crawl-delay जोडकर इस प्रॉब्लम से छुटकारा पा सकते है।
  • हालंकि Googlebot इस Command को नहीं मानता है। लेकिन Crawl rate को आप Google Search Console में सेट कर सकते है। यह आपके सर्वर को ओवरलोड होने से बचाता है।
  • किसी भी वेबसाइट के पुरे section को Private कर सकते है जिसको आओ लोगो को नहीं दिखाना चाहते।
  • आप low quality pages को block करके अपनी Website SEO में सुधार कर सकते है।
  • इसकी मदद से आपके website की search visibility बढ़ती हैं और ranking मे भी सुधार आता हैं.

Robots.txt मे क्या होता हैं?

Blogger मे बनी हर एक website उनके खुदके server पर hosted होती हैं इसकी वजह से इनकी default robots.txt file होती हैं. जैसे की आप निचे देख सकते हो ये किस प्रकार की होती हैं और हम इसका मतलब भी समझेंगे की ये क्या हैं और इसका use क्या हैं.

User-agent: Mediapartners-Google

Disallow:

User-agent: *

Disallow: /search

Allow: /

Sitemap: http://YOUR-BLOG-URL/feeds/posts/default?orderby=UPDATED

इसका अर्थ क्या हैं?

यह कोड तीन सेक्शन मे डिवाइड होता हैं. सबसे पहले हम हर एक को समझते हैं की इसका मतलब क्या हैं और फिर हम सीखेंगे की कैसे आप अपने blogspot ब्लॉग मे कस्टम robots.txt file को ऐड कर सकते हो.

User-agent: Mediapartners-Google

ये code Google Adsense के लिए होता हैं जिसकी मदत से आपके blog पर ads अच्छेसे दिखाई देगी. और अगर आप Adsense के ads रन कर रहे हो तो इसका यूज करो या फिर इसको as it is जैसे के वैसा छोड़ दो.

User-agent: *

Robots.txt में यह command सभी सर्च इंजन bots को आपकी साईट के सभी पेज क्रॉल करने की अनुमति देता है। इसके अलावा अगर आप सभी सर्च इंजन bots को same instruction देना चाहते हैं, तो User-agent: के बाद * चिन्ह का प्रयोग करें।

Disallow: /search

ब्लॉग के किसी भी URL के बाद सर्च keyword आएगा तो इसका यूज करके आप इस लिंक को सर्च होने से हाईड कर सकते हो. आप निचे दिया गये example को देख कर समझ सकते हो की इसकी लिंक कैसी होती है.

http://www.prohdphotos.co.in/search

और अगर आप Disallow: /search का यूज नहीं करोगे तो क्रॉलर्स आपके पुरे ब्लॉग को इंडेक्स करेगा और इसके अलावा ब्लॉग के सभी कंटेंट और वेब पेज को भी.

Allow: /

यह कोड होमपेज को रेफर करता हैं जिसका अर्थ हैं की वेब क्रॉलर्स आपके ब्लॉग होमपेज को भी क्रॉल और इंडेक्स करेंगे.

How to Disallow Particular Post?

मान लीजिये अगर आपको किसी particular पोस्ट को इंडेक्स होने नहीं देना हैं या सर्च होने से block करना हैं तो आप निचे दिए code की तरहा इसका प्रयोग कर सकते हो:

Disallow: /yyyy/mm/my-post-url.html
Disallow: /2013/03/post-url.html

यहां पर आपको ब्लॉग URL के आगे की लिंक इसमें add करनी हैं ना की पूरा url.

How to Disallow Particular Page

अगर आपको किसी स्पेसिफिक पेज को disallow करने की जरूरत हैं तो आप same method को use कर सकते हो जो हमने particular post को हाईड करने के लिए की थी. इसके लिए Simply copy करे page URL को और अपने blog address को remove कर दे, निचे दी गयी लिंक की तरहा आपको इसे करना हैं:

Disallow: /p/page-url.html

Sitemap: http://example.blogspot.com/feeds/posts/default?orderby=UPDATED

यह कोड हमारे ब्लॉग के sitemap को संदर्भित करता है। यहां साइटमैप लिंक जोड़कर हम केवल अपने ब्लॉग की crawling rate को optimized कर रहे हैं।

जब भी web crawlers हमारे robots.txt फ़ाइल को scan करेंगे, तो वे हमारे sitemap का एक रास्ता खोज लेंगे, जहाँ हमारे published किये हुए posts के सभी लिंक मौजूद हैं.

इससे वेब क्रॉलर्स आसानी से हमारे ब्लॉग पर मौजूद सभी पोस्ट्स को क्रॉल कर सकते हैं.

Note: Sitemap हमारे सिर्फ recent के 25 पोस्ट्स के बारे मे ही वेब क्रॉलर्स को बतायेगा. अगर आप अपने sitemap में लिंक की संख्या बढ़ाना चाहते हैं तो डिफ़ॉल्ट sitemap की जगह हमें निचे दी गयी लिंक की तरह रिप्लेस करना है, जिससे एक ही बार मे 500 लिंक्स तक क्रॉल हो सकते हैं.

Sitemap: http://example.blogspot.com/atom.xml?redirect=false&start-index=1&max-results=500

अगर आपके पास 500 से ज्यादा published posts हैं तो आप दो sitemaps का प्रयोग कर सकते हो जैसे मैंने निचे के कोड मे दिया हैं:

Sitemap: http://example.blogspot.com/atom.xml?redirect=false&start-index=1&max-results=500
Sitemap:
http://example.blogspot.com/atom.xml?redirect=false&start-index=500&max-results=1000

Custom Robots.txt Blogger मे कैसे add करे?

यह हमारे टुटोरिअल का सबसे मेन पार्ट हैं.क्यों की इतना सब जानने के बाद अब हम यह देखने वाले हैं की कैसे robots.txt को ब्लॉगर मे add करना हैं. इसके लिए आप नीचे दिए गए स्टेप्स को फॉलो करे –

Step 1 – सबसे पहले अपने blogger blog के account मे sign in करे.

Step 2 – हमें अब blogspot के dashboard मे जाना हैं और Settings >> Search Preferences ›› Crawlers and indexing के section मे, Custom robots.txt ›› Edit मे जाकर Yes करना हैं.

Blogger मे Custom Robots.txt File कैसे Add करे | सबसे आसान तरीका Step 3 – अब जैसे की मैंने कहा था की अगर आपको robots.txt code को समझने मे दिक्क़त आरही हैं और जाहिर सी बात हैं की सभी नए users को आती हैं, इसलिए हम sitemap generator tool की मदद से robots.txt को generate करेंगे.

Step 4 – इसके लिए निचे दी गयी link मे जाकर अपने blog का URL उसमे डाले और generate button पर click करे. और इतना याद रखे की यह टूल सिर्फ ब्लॉगर्स ब्लॉग के लिए ही बनाया गया हैं. अगर आप वर्डप्रेस जैसे साइट पर से आये हो तो आपको अलग स्टेप्स को फ़ॉलो करना होगा.

इस वेबसाइट पर जनरेट करे – Labnol Sitemap Generator Tool

Step 5 – यहां पर आपको अपने ब्लॉग का पूरा url पेस्ट करना हैं और जनेरेट sitemap पर क्लिक करना हैं.

Blogger मे Custom Robots.txt File कैसे Add करे | सबसे आसान तरीका

Step 6 – अगर आपके पेजेस ज्यादा हैं तो इसे जनेरेट होने मे थोड़ा समय लग सकता हैं पर 10 सेकंड के अंदर ही हमारी robots.txt फ़ाइल generate हो जाती हैं.

Blogger मे Custom Robots.txt File कैसे Add करे | सबसे आसान तरीका Step 7 – अब उपर के स्टेप मे जो हमारी robots.txt फ़ाइल जनरेट हुई हैं उसे कॉपी करके ब्लॉगर मे जाकर पेस्ट करे.

Step 8 – ये हमारी final स्टेप हैं. कोड पेस्ट करने के बाद Save Changes पर क्लिक करे और done! यहाँ पर हमने successfully हमारी robots.txt code को blogger मे ऐड कर दिया हैं.

Note – इसके बाद अगर आप ब्लॉगर प्लेटफार्म का यूज़ कर रहे है तो आपको यूआरएल रेडिरेक्शन के वजह से एअर्निंग्स में प्रॉब्लम आ सकती है इसके लिए ब्लॉग में आपको रेडिरेक्शन बंद करने के लिए कोड डालना होगा. आप नीचे की लिंक में जाकर उस सेटिंग को भी कर ले जिससे आपकी रेडिरेक्शन की प्रॉब्लम भी सॉल्व हो जाएगी.

Blogger मे Custom Robots.txt File कैसे Add करे | सबसे आसान तरीका

Robots.txt File को check कैसे करे?

आपको अपने ब्लॉग url के आगे बस /robots.txt को add करना हैं और वेब ब्राउज़र पर लिंक डालके सर्च करना हैं. For example:

http://www.yourblogurl.blogspot.com/robots.txt

ज़ब आप विजिट करोगे उस URL को तो आपको निचे दी गयी इमेज जैसा इंटरफ़ेस देखने को मिलेगा. और अगर निचे के जैसा पेज ओपन हो जाता हैं तो इसका मतलब हैं की आपकी robots.txt फ़ाइल generate हो गयी हैं. और अगर दिख नहीं रही तो थोड़ा 1-2 घंटे तक वेट कीजिये क्यूंकि इसे थोड़ा समय लगता हैं.

Blogger मे Custom Robots.txt File कैसे Add करे | सबसे आसान तरीका

2 COMMENTS

LEAVE A REPLY

Please enter your comment!
Please enter your name here