Robots.txt क्या है | कैसे Use करें | कैसे बनाये

What is robots.txt file kya hai? Robots.txt file kaise banaye?

Robot.txt File Kya Hai: नमस्ते दोस्तों आज के पोस्ट में हम बात करते है की Robot.txt file क्या है / किस तरीके से काम करती है, कैसे इसे बनाते हैं, इसको नहीं Use करें तो क्या फर्क पड़ेगा और SEO के point of view से कितनी important है।

आप नए Blogger हैं नई website बनाई है। तो आपके सामने Robots.txt File का नाम आया होगा। तो आपको इसके बारे में पता होना चाहिये। तो चलिये इसके बारे में थोड़ा सा जानते है।

Robots.txt का मतलब

सबसे पहले समझते हैं की Robot . txt का मतलब क्या है। सबसे पहली बात ये एक फाइल है और इसमें जो extension [ .txt ] ये Use हुआ है। हम आम तोर पर जैसे Notepad में कुछ लिखते हैं और फिर उसको हम Save करते हैं तो वो फाइल जिस extension में save होती है वो- [ .txt ] extension होता है।

जब हम Robots.txt फाइल बनाते हैं तो इस फाइल में कुछ instruction होते हैं, Crawler के लिए । Search Engine के crawler को ये बताने के लिए की crawler को कोनसे page को crawl करना और कोनसे पेज को crawl नहीं करना।

रोबोट्स.txt की मूल बातें समझना

हाँ दोस्तों Robots.txt की मूल ( Basic ) बाते देखते है!!

आप robots.txt के बेसिक्स को समझना चाहते है तो यह उस गुप्त कोड को सीखने जैसा है जो सर्च इंजनों को बताता है कि आपकी वेबसाइट या ब्लॉग के किन हिस्सों को एक्सप्लोर करना है और किसे छोड़ना है। एक तरीके से यह आपका डिजिटल बाउंसर है, जो आपके ऑनलाइन स्थान तक पहुंच को नियंत्रित करता है और आपकी साइट के माध्यम से खोज इंजन जैसे Google etc क्रॉलर्स को उनकी यात्रा में मार्गदर्शन करता है।

इस File की परिभाषा को तोड़ना

Definition भी यही है क्यों आपका Time खराब करना। 

आप देखिये की , ये txt फाइल बोट्स के लिए निर्देश का एक सेट है। robots.txt फाइलें अधिकतर जो वेब क्रॉलर होते है उनकी गतिविधियों को मैनेज (manage) करते है।

**robots.txt के अर्थ को सरल बनाना

इस रोबोट.txt फ़ाइल से सर्च इंजन के क्रॉलर होते है उनको यह निर्देश या जानकारी मिलती है। जिससे क्रॉलर आपकी साइट के किन किन यूआरएल को ऐक्सेस कर सकता है. इसके अलावा फ़ाइल को काम में ले ताकि आपकी साइट पर अनुरोधों का लोड ज़्यादा हो ना जाये।

यह file क्यों बनाई जाती है ?

ये सवाल आपके मन में आएगा-
ये क्या बात हुई जब हमने Blogging शुरू की तो, हमे ये बताया गया की हमे अपनी वेबसाइट के सारे pages को search engine के Crawler से crawl करवाना है ताकि Crawler अच्छे से हमारी वेबसाइट के page को crawl करे और हमारी वेबसाइट या ब्लॉग पर पेज को समझ सके और उसे अच्छे से index कर सके।

अब ये Robot.txt क्या आ गया जिससे हम Crawler को instruction दे रहे है जिससे हमारी वेबसाइट के कुछ webpage को crawl करे और कुछ को crawl ना करे।

अब ये कोनसी condition आ गयी जिससे ये सब करना पड रहा है। हम क्यों ऐसा करे, की कुछ पेज को क्रॉल कर कर रहे है और कुछ को नहीं।
क्या ऐसी condition होती है – तो हाँ ऐसी कुछ condition है।

जब भी क्रॉलर जब भी हमारी वेबसाइट पर आएगा, तो उस क्रॉलर के पास एक crawl Budget होता है। Crawl Budget इसको समझे तो – आसान भाषा में Crawl Budget एक Time आप समझ लीजिए, की Crawler हमारी Website पर कितना Time लगाएगा।

अगर आपकी वेबसाइट बहुत अच्छी है, बहुत Content है, बहुत ज्यादा popular है तो इस केस में आपका Crawl Budget बहुत जायदा होगा। दूसरी तरफ अगर मेरी वेबसाइट छोटी है पॉपुलर नहीं है तो Crawl Budget कम होगा।

अब इसी Time में Crawler को हमारी वेबसाइट के पेज को क्रॉल करना है। इससे हमारी वेबसाइट की रैंकिंग पर असर पड़ता है।
इसी के लिए Robots.txt फाइल बनाई जाती है।

Robots.txt File बनाने से हम ये बता सकेंगे की उसे कोनसे पेज को crawl नहीं करना है। जिससे उसका Time बचेगा और उसमे वो जो जरूरी पेज है उनको index कर लेगा।

Robots.txt file क्या है

जैसा ऊपर मैंने बताया है। Robots.txt file ये एक फाइल होती है। इसे हम बनाते है क्युकी हम Search Engine के crawler को instruction दे सके की उसे हमारी website के कोनसे page को कोनसे page को crawl करना और कोनसे पेज को crawl नहीं करना।

Robots.txt File कैसे काम करती है ?

जब भी Crawler हमारी वेबसाइट पर आएगा और उसे Robots.txt File मिल जाती है तो उस File के according वो वेबसाइट की Crawling और Indexing करता है. अगर सर्च इंजन के Crawler को Robots.txt File बनी नहीं मिलती है तो ऐसी condition में वह वेबसाइट के सभी पेज को Crawl कर लेता है.

Robots.txt के फायदे

Robots.txt File बनाने के कुछ फायदे जैसे की –

  • जिन पेज को index नहीं करवाना उसकी Crawling को रोक सकते हैं।
  • Important पेज को जल्दी से इंडेक्स हो जाते हैं। जिससे रैंकिंग सुधार होगा।
  • Crawl Budget का सही इस्तेमाल कर सकते हैं.

इस File को कैसे बनाये

यहां पर WordPress व Blogger.com इन दोनों में Robots.txt File कैसे बनाई जाती है।

**अपनी स्वयं की robots.txt फ़ाइल बनाने के लिए Step-by-step guide**

#1 _ ब्लॉगर प्लेटफ़ॉर्म के लिए robots.txt सेट करना

कुछ Steps जिनसे आप फाइल बना पाएंगे

» सबसे पहले ब्लॉगर डैशबोर्ड के Setting पशर क्लिक करें।
» इसके बाद स्क्रोल डाउन करें और Crawlers and Indexing वाले विकल्प में जाइये।
» अब आपको Custom Robots.txt को Enable करना है।
» Enable custom robots header tags को Enable कीजिये।
» अब आप Custom Robots.txt File बनाइये अपनी Blogger वेबसाइट में Add कर लेना है.

#2 _ WordPress में कैसे बनाये: robots.txt को कॉन्फ़िगर करना

WordPess में ये चीजे बहुत आसान हो जाती है क्युकी इसमें Robot.txt File अपने आप बन जाती है। अगर आपके पास Yoast Plugin ये सब है

WordPress Dashboard में SEO वाले विकल्प पर जाइये .
SEO >> Tools >> File Editor
इस पर क्लिक करते ही आप Robots.txt को एडिट कर सकते हैं.

 अपनी वेबसाइट की robots.txt फ़ाइल की जाँच करना

आपको Url में ये किसी Website का नाम लिखना है। उसके आगे Robots.txt लिख देना है।
जैसे – https://www.Facebook.com/robots.txt

बस Robot.txt File आपके सामने आ जाएगी।

Final Lines: Robot.txt File Kya Hai

उम्मीद है आपको यह पोस्ट Robots.txt क्या है, कैसे Use करें, कैसे बनाये। पसंद आया होगा। पसंद आये तो जरूर share कीजिए।

Wish you all the Best

आपके लिए

»  Domain नाम क्या है इसके प्रकार

»  ANCHOR TEXT क्या है | कैसे लिखें

»  Sitemap क्या है | कैसे बनाये 2023

»  External Link क्या है | कैसे करें

»  Internal Link क्या है ?

Leave a Comment

Your email address will not be published. Required fields are marked *