วิธีใช้ไฟล์ Robots.txt สำหรับ SEO

วิธีใช้ไฟล์ Robots.txt สำหรับ SEO

คุณรู้หรือไม่ว่า Robots.txt เป็นหนึ่งในสิ่งสำคัญใน SEO ของเว็บไซต์ของคุณ? Robots.txt คืออะไร และคุณจะใช้สำหรับ SEO อย่างไร? เรากำลังจะอธิบายพวกเขาที่นี่ ในโพสต์นี้

Robots.txt คืออะไร?

มีไฟล์ในไดเร็กทอรี root ของเว็บไซต์ ที่บอกโปรแกรมรวบรวมข้อมูลของโปรแกรมค้นหา และสไปเดอร์ว่าหน้า และไฟล์ใดที่พวกเขาควรจะสามารถดูได้และหน้าใดที่ไม่ควร ผู้ดูแลเว็บมักต้องการให้เครื่องมือค้นหาพบไซต์ของตน แต่มีบางครั้งที่ไม่จำเป็น หากคุณกำลังเก็บข้อมูลส่วนตัวหรือพยายามประหยัดพื้นที่ คุณสามารถหยุดเครื่องมือค้นหา ไม่ให้สร้างดัชนีไฟล์ของคุณ (ยกเว้นหน้าที่มีรูปภาพจำนวนมาก)

มาตรฐาน robots exclusion หรือที่เรียกว่า robots exclusion protocol หรือเรียกง่ายๆว่า robots.txt เป็นมาตรฐานที่ เว็บไซต์ ให้เพื่อสื่อสารกับ web crawlers และ web robots อื่นๆ

เครื่องมือค้นหา มักใช้โรบ็อตในการจัดหมวดหมู่เว็บไซต์ โรบ็อตบางตัวไม่ได้ให้ความร่วมมือกับมาตรฐาน ;  email harvesters, spambotsmalware และ robots ที่สแกนหาช่องโหว่ด้านความปลอดภัย อาจเริ่มต้นด้วยส่วนต่างๆ ของเว็บไซต์ที่พวกเขาได้รับคำสั่งให้ไม่อยู่ มาตรฐานนี้สามารถใช้ร่วมกับ แผนผังเว็บไซต์ (sitemap) ซึ่งเป็นมาตรฐานการรวมโรบ็อตสำหรับเว็บไซต์ – วิกิพีเดีย

เครื่องมือค้นหาที่ใช้คีย์เวิร์ดและข้อมูลเมตา เพื่อสร้างดัชนี หน้าเว็บจะแสดงผลลัพธ์ที่เกี่ยวข้องมากที่สุด แก่ผู้ที่ค้นหาบางสิ่งบนอินเทอร์เน็ต เป็นสิ่งสำคัญสำหรับเจ้าของร้านค้าออนไลน์ที่จะได้รับผลลัพธ์ จากเครื่องมือค้นหาที่ดีกว่าธุรกิจอื่นๆ เพื่อให้ ได้ผลลัพธ์เครื่องมือค้นหาที่ดี โดยปกติ ผู้คนจะไม่ผ่านหน้าแรกของผลลัพธ์จากคำแนะนำของเครื่องมือค้นหา

การจัดทำดัชนี ทำได้โดยใช้สไปเดอร์หรือโปรแกรมรวบรวมข้อมูลซึ่งเคลื่อนที่ไปมา นี่คือวิธีที่บริษัทเครื่องมือค้นหาได้รับ และจัดระเบียบข้อมูลทั้งหมดบนอินเทอร์เน็ต บริษัทเหล่านี้ใช้บ็อตเหล่านี้ robots.txt เป็นไฟล์ที่โปรแกรมรวบรวมข้อมูลค้นหา เมื่อเข้าชมเว็บไซต์เป็นครั้งแรก ทันทีที่โปรแกรมรวบรวมข้อมูลพบไฟล์ลักษณะนี้ โปรแกรมจะค้นหาคำแนะนำเกี่ยวกับวิธีจัดทำดัชนีเว็บไซต์ในไฟล์ ไม่มีคำแนะนำสำหรับบอทที่หาไม่พบ ดังนั้นจึงใช้อัลกอริธึมของการดำเนินการเพื่อค้นหา สิ่งนี้ทำให้ผู้คนจำนวนมากค้นหาสิ่งต่างๆบนเว็บไซต์ แต่ยังทำให้กระบวนการจัดทำดัชนีมีประสิทธิภาพน้อยลง

เพื่อให้ไฟล์ robots.txt ทำงานได้ ต้องมีไฟล์เดียวเท่านั้นในไซต์ ชื่อโดเมน Add-on ต้องมีไฟล์ robots.txt ที่ root ของหน้าเว็บ ตัวอย่างเช่น ควรอยู่ที่ https://www.domain.com/robots.txt และควรบอกให้โรบ็อตไม่ไปที่ไซต์นั้น Robots.txt มีความสำคัญเช่นกันเพื่อให้แน่ใจว่าชื่อไฟล์ของคุณเรียกว่า robots txt ถ้าสะกดชื่อไม่ถูก จะใช้ไม่ได้

ควบคุมได้

ควบคุมได้

คุณสามารถควบคุม SEO ของไซต์ของคุณได้มากกว่าที่คุณคิด โดยทั่วไปนี่เป็นเรื่องจริง คุณสามารถเลือกโปรแกรมรวบรวมข้อมูล และตัวสร้างดัชนีที่สามารถดู และจัดทำดัชนีเว็บไซต์ของคุณได้ที่ระดับหน้าเว็บ มีไฟล์ชื่อ robots.txt ที่สามารถใช้เพื่อให้แน่ใจว่าสิ่งนี้จะไม่เกิดขึ้นอีก มีไฟล์ข้อความธรรมดาที่เรียกว่า robots.txt ในไดเรกทอรี root ของเว็บไซต์ของคุณ ไฟล์นี้บอกให้โรบ็อตเว็บไม่อ่านเว็บไซต์ของคุณ โรบ็อตสามารถใช้ข้อมูลนี้ เพื่อปรับปรุงผลการค้นหา ให้เฉพาะเจาะจงมากขึ้น

เนื่องจากไม่ใช่จุดจบและไม่ใช่ทั้งหมด คุณจึงพบว่าเป็นวิธีที่ยอดเยี่ยมในการทำให้เครื่องมือค้นหามองเห็นเว็บไซต์ของคุณได้ หากคุณต้องการสร้างเครื่องมือค้นหาเช่นไซต์ของคุณ คุณต้องสร้างความประทับใจแรกพบที่ดี การใช้ robots.txt สามารถช่วยในเรื่อง SEO ในทางที่ถูกต้อง ดังนั้นคุณจะทำอย่างไรเกี่ยวกับเรื่องนี้? บุคคลนี้มีชีวิตอยู่เพื่ออะไร? สิ่งที่คุณไม่ควรทำเลย? คำตอบสำหรับคำถามเหล่านี้อยู่ในหน้าถัดไป

เหตุผลในการใช้ Robots.txt

Robots.txt เป็นไฟล์ที่เครื่องมือค้นหา ใช้เพื่อค้นหาว่าหน้าใดในไซต์ของคุณที่จะสร้างดัชนีและหน้าใดที่จะไม่ให้อยู่ในผลการค้นหา ตัวอย่างเช่น หากคุณพูดในไฟล์ Robots.txt ว่าหน้าขอบคุณของคุณ ไม่ควรใช้ได้กับเครื่องมือค้นหา หน้านี้จะไม่แสดงในผลการค้นหาและผู้ที่ค้นหาบนเว็บจะไม่สามารถเข้าถึงได้ หน้าบางหน้าของไซต์ของคุณต้องถูกซ่อนจากเครื่องมือค้นหา เพื่อความเป็นส่วนตัวและการจัดอันดับของเครื่องมือค้นหา สิ่งนี้สำคัญสำหรับทั้งคู่

จะค้นหาไฟล์ Robots ของคุณได้ที่ไหน?

หากคุณมีเว็บไซต์ ไฟล์ robots.txt จะอยู่ในไดเร็กทอรี root ของเว็บไซต์ของคุณ ป้อน FTP cPanel ของคุณและมองหามันในพื้นที่ HTML สาธารณะของบัญชีของคุณ ไฟล์เหล่านี้ใช้พื้นที่ไม่มาก พวกมันอาจมีขนาดเพียงไม่กี่ร้อยไบต์เท่านั้น หากหาไม่ได้ ก็ต้องสร้างมันขึ้นมา

วิธีการทำงานของ Robots.txt

เมื่อเครื่องมือค้นหา ต้องการสร้างดัชนีไซต์ของคุณ พวกเขาจะส่งโปรแกรมเล็กๆ ที่เรียกว่า “สไปเดอร์ (spiders)” หรือ “โรบ็อต (robots)” ออกมา ซึ่งรวบรวมข้อมูลทั่วไซต์ของคุณ และส่งคืนข้อมูลไปยังเครื่องมือค้นหา คำสั่ง “Disallow” ของ Robots.txt จะสั่งเครื่องมือค้นหาและโปรแกรมอื่นๆ ไม่ให้ค้นหาหน้าบางหน้าในเว็บไซต์ของคุณ ที่คุณระบุในคำสั่ง คำสั่งต่อไปนี้ สามารถพบได้ในไฟล์ robots.txt :

“User-agent: *

Disallow: /thankyou”

จะป้องกันไม่ให้โรบ็อตของเครื่องมือค้นหาทั้งหมดเข้าถึงหน้าต่อไปนี้ บนไซต์ของคุณ : http://www.yoursite.com/thankyou

ก่อนคำสั่ง disallow คือคำสั่ง: “User-agent: * ” ส่วน User-agent จะระบุโรบ็อตที่คุณต้องการห้าม

“User-agent: Googlebot” คำสั่งนี้จะป้องกันไม่ให้โรบ็อตของ Google เข้าถึงเว็บไซต์เท่านั้น โรบ็อตอื่นๆ จะยังสามารถเข้าถึงได้: http://www.yoursite.com/thankyou

อย่างไรก็ตาม ด้วยการใช้อักขระ “*” คุณระบุว่าคำสั่งด้านล่างอ้างถึงโรบ็อตทั้งหมด ไฟล์ robots.txt ของคุณจะอยู่ในไดเรกทอรีหลักของเว็บไซต์ของคุณ ตัวอย่างเช่น: http://www.yoursite.com/robots.txt

วิธีรวบรวมไฟล์ Robots.txt

วิธีรวบรวมไฟล์ Robots.txt

ทุกคนสามารถสร้างไฟล์นี้เป็นข้อความธรรมดาได้ คุณต้องใช้โปรแกรมแก้ไขข้อความ เช่น Notepad เพื่อเขียนข้อความ เปิดไฟล์ข้อความใหม่และบันทึกเป็น “robots.txt” จากนั้นพิมพ์ลงไป เมื่อคุณอยู่ใน cPanel ให้ไปที่โฟลเดอร์ HTML สาธารณะแล้วคลิก เริ่มต้นด้วยการตรวจสอบให้แน่ใจว่าไฟล์นั้นอยู่ที่นั่นแล้ว หากทุกอย่างดูดี แสดงว่าคุณทำเสร็จแล้ว เฉพาะผู้ที่เป็นเจ้าของไฟล์เท่านั้น ที่จะสามารถดูและเปลี่ยนแปลงได้ ไฟล์ต้องได้รับอนุญาต “0644” จึงจะใช้งานได้

หากไม่เป็นเช่นนั้น ให้คลิกขวาที่ไฟล์แล้วเลือก “change permissions” ที่นั่นคุณมีมัน! มีไฟล์ชื่อ robots.txt ซึ่งมีคำแนะนำสำหรับโรบ็อต Robots.txt Syntax ไฟล์ robots.txt มี “คำสั่ง (directives)” หลายส่วนสำหรับ User Agent แต่ละรายที่ตั้งค่าไว้ แต่ละรายการเริ่มต้นด้วยชื่อของตัวแทนผู้ใช้ บ็อตรวบรวมข้อมูลแต่ละรายการจะถูกระบุโดย ID ตัวแทนผู้ใช้ตามรหัส

มีสองวิธีในการทำเช่นนี้ : ตราบใดที่คุณใช้ไวด์การ์ด คุณสามารถกำหนดเป้าหมายเครื่องมือค้นหาทั้งหมดพร้อมกันได้ คุณสามารถเลือกเครื่องมือค้นหาที่คุณต้องการกำหนดเป้าหมายได้ . เมื่อคุณเริ่มบ็อตรวบรวมข้อมูล บ็อตจะไปที่ส่วนต่างๆของเว็บไซต์ที่มีความสุขน้อยที่สุด มันจะเป็นเช่นนี้ :

คำสั่ง User-Agent

สองสามบรรทัดแรกของแต่ละบล็อก ประกอบด้วยตัวแทนผู้ใช้ ซึ่งระบุบ็อต ตัวอย่างเช่น หากคุณต้องการบอก Googlebot ว่าต้องทำอะไร ให้เริ่มด้วย:

User-agent: Googlebot ตามกฎแล้ว เครื่องมือค้นหากำลังมองหาข้อมูลที่เกี่ยวข้องมากที่สุด

ตราบใดที่คุณมีคำสั่ง Googlebot-Video และ Bingbot ตัวแทนผู้ใช้ ‘Bingbot’ จะดำเนินการตามคำแนะนำ คุณอาจคาดหวังคำแนะนำที่แม่นยำยิ่งขึ้น จาก Googlebot-Video

รายการด้านล่าง เป็นโรบ็อตของเครื่องมือค้นหา ที่ใช้กันอย่างแพร่หลายมากที่สุด

คำสั่ง Disallow

บ็อตจะไม่สามารถเข้าถึงบางส่วนของเว็บไซต์ของคุณ หากคุณเปิดใช้งานคุณสมบัตินี้ ไม่มีอะไรป้องกันบ็อต จากการเดินทางทางอินเทอร์เน็ตและเข้าถึงเว็บไซต์ใดๆ ที่พวกเขาต้องการได้

คำสั่ง Sitemap  (XML Sitemaps)

เมตาแท็กนี้บอกเครื่องมือค้นหาว่า แผนผังไซต์ของคุณอยู่ที่ไหน คุณต้องส่งพวกเขาไปยังเครื่องมือค้นหาสำหรับผู้ดูแลเว็บเพื่อค้นหา จะช่วยได้ถ้าคุณใช้เครื่องมือเหล่านี้ เพราะสามารถสอนคุณได้มาก เกี่ยวกับเว็บไซต์ของคุณ เมื่อความเร็วมีความสำคัญ ให้ใช้คำสั่งที่เรียกว่า “แผนผังเว็บไซต์ (sitemap)”

คำสั่ง Crawl-Delay

หากคุณต้องการลดความเร็วของ Yahoo, Bing และ Yandex ลงเล็กน้อย เมื่อพวกเขารวบรวมข้อมูล คุณสามารถใส่คำสั่งที่เรียกว่า “crawl-delay” สิ่งต่อไปนี้จะเกิดขึ้น เมื่อคุณใส่บรรทัดนี้ลงในบล็อกของคุณ :

Crawl-Delay:10 รอสิบวินาที ก่อนที่จะรวบรวมข้อมูล

เมื่อมีการตั้งค่าเครื่องมือค้นหา สามารถตั้งค่าให้รอสิบวินาทีก่อนที่จะรวบรวมข้อมูลไซต์ หรือสิบวินาทีก่อนที่จะกลับมายังไซต์หลังจากรวบรวมข้อมูล เอฟเฟกต์เกือบจะเหมือนกันแต่แตกต่างกันเล็กน้อย ขึ้นอยู่กับเครื่องมือค้นหาที่ใช้ หลังจากการรวบรวมข้อมูล การรวบรวมข้อมูลล่าช้า 1ครั้ง หมายความว่าเครื่องมือค้นหา จะเริ่มรวบรวมข้อมูลเว็บไซต์ทันที

การใช้ Google Webmaster Tools เพื่อสร้าง Robots.txt

เลือก “crawler access” จากแถบเมนูเพื่อสร้างไฟล์ robots.txt อย่างรวดเร็วด้วยบัญชี Google Webmaster Tools ฟรี หากต้องการสร้างไฟล์ Robots.txt พื้นฐาน ให้เลือก “generate robots.txt” เมื่อคุณไปที่ไซต์

ในส่วน “action” ให้เลือก “action” และในส่วน “User-agent” ให้เลือกโรบ็อตที่คุณไม่ต้องการเห็นบนเว็บไซต์ของคุณ เลือก “directories และ files” แล้วพิมพ์ชื่อโฟลเดอร์ที่คุณต้องการให้พ้นจากการเข้าถึง “http://www.yoursite.com” ไม่ควรเป็นส่วนหนึ่งของกลยุทธ์นี้ไม่ว่าในรูปแบบใด, รูปร่าง หรือรูปแบบใดๆ” ตัวอย่างเช่น ถ้าคุณไม่ต้องการให้ผู้อื่นสามารถเห็นหน้าด้านล่าง คุณสามารถ:

  • http://www.yoursite.com/thank-you
  • http://www.yoursite.com/free-stuff
  • http://www.yoursite.com/private

ใน Google Webmaster Tools ให้ป้อนข้อมูลต่อไปนี้ลงในฟิลด์ “directory และ files”:/thank-you

  • /free-stuff
  • /private

การใช้ Google Webmaster Tools เพื่อสร้าง Robots.txt

หลังจากป้อนข้อมูลเหล่านี้ สำหรับโรบ็อตทั้งหมด และกดปุ่ม “add a rule” ไฟล์ Robots.txt สุดท้ายจะมีลักษณะดังนี้

User-agent: *

Disallow: /private

Disallow: /thank-you

Allow: /

หลังจากป้อนข้อมูลเหล่านี้ สำหรับโรบ็อตทั้งหมด แล้วกด “add a rule” ไฟล์ Robots.txt สุดท้ายจะมีลักษณะดังนี้

มีคำสั่ง “Allow” ที่เป็นค่าเริ่มต้น หากคุณต้องการยกเว้นและอนุญาตให้โรบ็อตเข้าถึงเว็บไซต์ที่คุณบล็อกด้วยคำสั่ง

User-agent: *

Disallow: /images/

By placing the command:

Allow: /Googlebot

Googlebot สามารถไปที่ไดเร็กทอรีรูปภาพของไซต์ของคุณได้ก็ต่อเมื่อ มีการวางคำสั่งห้ามไว้ข้างๆ จากนั้นคลิก “download” เพื่อรับไฟล์ Robots.txt ของคุณ คลิก “download” เมื่อคุณเลือกเพจและไฟล์ที่คุณต้องการบล็อก ให้คลิก “download”

ติดตั้งไฟล์ Robots.txt ของคุณ

สามารถเพิ่มไฟล์ชื่อ “Robots.txt” ลงในไดเร็กทอรีหลัก (www) ของพื้นที่ CNC ของเว็บไซต์ของคุณได้แล้ว ซึ่งหมายความว่าขณะนี้ สามารถหาได้ Filezilla เป็นไคลเอนต์ FTP ที่ดีสำหรับสิ่งนี้ รับไฟล์ robots.txt ของคุณที่สร้างโดยโปรแกรมเมอร์เว็บ หลังจากระบุรายการ URL ที่ควรถูกบล็อกจากการรวบรวมข้อมูล นี่เป็นทางเลือกเพิ่มเติม ในกรณีนี้ นักพัฒนาเว็บที่มีทักษะจะเสร็จงานภายในเวลาไม่ถึงหนึ่งชั่วโมง

Noindex กับ Disallow

หลายคนไม่ทราบว่าจะใช้กฎใดในไฟล์ robots.txt ของเว็บไซต์ของคุณในแถบนำทาง เนื่องจากเหตุผลที่ให้ไว้ในส่วนก่อนหน้านี้ทำให้ Robots.txt ไม่มีกฎดัชนีไม่ทำงานอีกต่อไป เว็บไซต์ของคุณอาจมีเมตาแท็ก “noindex” ที่คุณสามารถใช้เพื่อหยุดเครื่องมือค้นหาไม่ให้สร้างดัชนีหน้าเว็บใดหน้าหนึ่งของคุณ ตามกฎแล้ว แท็กนี้จะช่วยให้เว็บโรบ็อตเข้าชมไซต์ของคุณได้ แต่จะบอกให้เครื่องมือค้นหาไม่จัดทำดัชนีหน้าเว็บของคุณ

อาจไม่ได้ผลเท่ากับแท็ก noindex ในระยะยาว กฎ disallow อาจไม่ได้ผลเท่ากับแท็กนี้ นี่เป็นสิ่งที่ดีเพราะ robots.txt หยุดเครื่องมือค้นหาไม่ให้สแกนหน้าเว็บของคุณ มันไม่ได้หยุดพวกเขาจากการจัดทำดัชนีหน้าของคุณตามข้อมูลจากหน้าและเว็บไซต์อื่น ๆ ซึ่งเป็นสิ่งที่ดี สิ่งสำคัญคือต้องจำไว้ว่า แม้ว่าคุณจะปิดใช้งานและเพิ่มแท็ก noindex ลงในหน้าเว็บ โรบ็อตจะไม่ทราบเกี่ยวกับแท็กดังกล่าว และอาจสร้างดัชนีหน้าต่อไปแม้ว่าคุณจะรู้ก็ตาม

ข้อผิดพลาดที่คุณจะต้องหลีกเลี่ยง

ข้อผิดพลาดที่คุณจะต้องหลีกเลี่ยง

คุณได้เรียนรู้เกี่ยวกับสิ่งต่างๆ มากมายที่คุณสามารถทำได้ด้วยไฟล์ robots.txt และวิธีใช้งาน ในส่วนนี้ เราจะพูดถึงแต่ละประเด็นให้ละเอียดยิ่งขึ้น และแสดงให้เห็นว่าหากใช้ผิด อาจส่งผลเสียต่อ SEO ได้อย่างไร

คุณไม่สามารถใช้ไฟล์ robots.txt หรือแท็ก “noindex” เพื่อหยุดไม่ให้ผู้คนเข้าถึงข้อมูลที่เป็นประโยชน์ที่คุณต้องการเปิดเผยต่อสาธารณะ ในอดีต เราได้เห็นเหตุการณ์เช่นนี้เกิดขึ้นมากมายกับ SEO ล้วนส่งผลเสียต่อผลลัพธ์ สิ่งสำคัญคือต้องตรวจสอบให้แน่ใจว่าหน้าเว็บทั้งหมดของคุณมีแท็กและกฎ noindex และ noblock ก่อนที่จะเผยแพร่

หากคุณใช้คำสั่งการหน่วงเวลาการรวบรวมข้อมูล คุณไม่ควรใช้คำสั่งเหล่านี้บ่อยเกินไป นี่เป็นเพราะพวกเขาจำกัดจำนวนหน้าที่บ็อตสามารถดูได้ ในทางกลับกัน การมีเว็บไซต์ขนาดใหญ่ อาจทำให้คุณขึ้นอันดับสูงและมีผู้เยี่ยมชมได้ยากขึ้น

เพื่อให้แน่ใจว่าไฟล์ของโรบ็อตของคุณ อ่านได้อย่างถูกต้อง คุณต้องใช้รูปแบบ Robots.txt ที่ถูกต้องสำหรับไฟล์ของคุณ ตัวอักษรทั้งหมดควรเป็นตัวพิมพ์เล็ก เมื่ออยู่ในไฟล์ของโรบ็อต ควรเรียกว่า “robots.txt” ไม่สามารถทำงานได้ หากเขียนไม่ถูกต้อง

กำลังปิด – ทดสอบ Robots.TXT ของคุณ

ไฟล์ของคุณควรได้รับการตรวจสอบเพื่อให้แน่ใจว่าทำงานได้อย่างถูกต้อง มีช่องทดสอบ robots.txt ที่คุณสามารถใช้ใน Google Webmaster Tools ได้ แต่ถ้าคุณใช้ Google Search Console แบบเก่าซึ่งไม่ได้ใช้แล้ว ตัวทดสอบ robots.txt ไม่ทำงานอีกต่อไปเนื่องจาก GSC ล่าสุด (Google กำลังทำงานอย่างเต็มที่เพื่อเพิ่มคุณลักษณะใหม่ๆ ให้กับ GSC ดังนั้นในอนาคต เราจะสามารถเห็นเครื่องมือทดสอบ Robots.txt ในการนำทางหลัก)

หากคุณต้องการเรียนรู้เพิ่มเติมว่าผู้ทดสอบ Robots.txt ทำอะไรได้บ้าง ไปที่หน้าความช่วยเหลือของ Google มีเครื่องมือที่มีประโยชน์อีกตัวหนึ่ง:

เลือกโปรเจ็กต์จากเมนูดรอปดาวน์ทางขวามือ ตัวอย่างเช่น คุณสามารถทำงานบนเว็บไซต์ของบริษัทหรือโครงการอื่นได้

หากต้องการแทนที่ไฟล์ robots.txt เก่าด้วยไฟล์ที่คุณเพิ่งสร้าง คุณต้องนำทุกอย่างออกจากกล่องก่อน ในการเริ่มการทดสอบ ให้คลิก “Test” ค่าของ “Test” ควรเปลี่ยนเป็น “Allowed” วิธีนี้จะช่วยให้แน่ใจว่าไฟล์ robots.txt ของคุณทำงานอย่างถูกต้อง

การทำให้แน่ใจว่าไฟล์ robots.txt ของคุณถูกต้อง คุณจะสามารถปรับปรุงประสิทธิภาพของเครื่องมือค้นหา(SEO) และประสบการณ์ผู้ใช้ของผู้เยี่ยมชมได้ในเวลาเดียวกัน ง่ายกว่าสำหรับคุณในการควบคุมสิ่งที่ผู้คนเห็น เมื่อพวกเขาค้นหาสิ่งต่างๆบนไซต์ของคุณ หากโรบ็อตสามารถใช้เวลาทั้งวันในการค้นหาและจัดทำดัชนี

ร่วมเป็นผู้ลงโฆษณาที่ BLOGDRIP

หลังจากลงทะเบียนแล้ว คุณจะได้รับอีเมลจากเราพร้อมรายละเอียดการเข้าสู่ระบบ
เมื่อคุณเข้าสู่ระบบแล้ว คุณสามารถเริ่มต้นการเผยแพร่บทความของคุณได้ทันที