อินเทอร์เน็ต, บล็อก
วิธีการลบเว็บไซต์หรือเศษจากดัชนีของ Google
ตามแนวคิดการจัดทำดัชนีการรับรองโดย Google คิดครบถ้วนเที่ยงธรรมของข้อมูลและความสอดคล้องของการค้นหาในการออกผล หากดัชนีตกอยู่เว็บไซต์ที่มีเนื้อหาที่ผิดกฎหมายหรือทรัพยากรสำหรับสแปมหน้าของเว็บไซต์นี้จะไม่ถูกทำเครื่องหมายในเครื่องมือค้นหาฐานข้อมูลร่วมกัน กับเรามันเป็นสิ่งสำคัญที่จะเรียนรู้ วิธีการเอาสถานที่ จากการออกผลของเซิร์ฟเวอร์การค้นหาที่
สายพันธุ์ของศูนย์การจัดทำดัชนีของ Google
เมื่อหุ่นยนต์ค้นหา - โปรแกรมเพื่อเก็บรวบรวมข้อมูลเกี่ยวกับทรัพยากรใหม่ - จะสแกนหน้าเว็บไซต์โดยหน้าแล้วเมื่ออยู่ภายใต้ข้อกำหนดของนโยบายของ Google สำหรับการแยกก็จะมีการจัดทำดัชนี แต่เราก็แสดงให้คุณเห็นวิธีการที่จะลบเว็บไซต์ของคุณหรือชิ้นส่วนสำหรับเครื่องมือค้นหาผ่าน robots.txt - ดัชนีและการค้นหาที่ป้ายเวลาเดียวกัน
ในการยกเว้นจากการออกทรัพยากรที่เป็นทั้งในโฟลเดอร์รากของเซิร์ฟเวอร์ที่เว็บไซต์ที่มีอยู่สร้างพื้นที่ข้อความบางอย่าง - กล่าว robots.txt โซนนี้คือการรักษาด้วยเครื่องมือค้นหาและปฏิบัติตามคำแนะนำของผู้อ่าน
เก็บไว้ในใจว่าดัชนีเครื่องมือค้นหาของ Google หน้าแม้ว่าผู้ใช้มีสิทธิ์ในการดูสิ่งต้องห้าม เมื่อเบราว์เซอร์ที่มีการตอบสนองต่อ 401 หรือ 403 "การเข้าถึงไม่ถูกต้อง" ก็ใช้เฉพาะกับผู้เข้าชมมากกว่าโปรแกรมที่รวบรวมสำหรับนี้ เครื่องมือค้นหา
เพื่อให้เข้าใจถึง วิธีการเอา เว็บไซต์จากการจัดทำดัชนีของเครื่องมือค้นหาตัวชี้ข้อความต้องป้อนบรรทัดต่อไปนี้:
User-agent: Googlebot
Disallow: /
นี้บ่งชี้ที่จะรวบรวมข้อมูลเพื่อจัดทำดัชนีข้อห้ามของเนื้อหาทั้งหมดในเว็บไซต์ นี่คือ วิธีการลบเว็บไซต์ ของ Google เพื่อให้หลังไม่แคชทรัพยากรในรายการของการตรวจพบ
Embodiments ของการสแกนสำหรับโปรโตคอลที่แตกต่างกัน
หากคุณต้องการที่จะแสดงรายการมาตรฐานการสื่อสารของแต่ละบุคคลที่คุณต้องการที่จะใช้กฎพิเศษสำหรับการจัดทำดัชนีของ Google เช่นแยกต่างหากสำหรับไฮเปอร์ โปรโตคอล HTTP / HTTPS, มันก็ยังเป็นสิ่งจำเป็นที่จะลงทะเบียนใน robots.txt ในวิธีดังต่อไปนี้ (ตัวอย่าง)
(Http://yourserver.com/robots.txt) - ชื่อโดเมนของเว็บไซต์ของคุณ (ใด ๆ )
User-agent: * - เครื่องมือค้นหาใด ๆ
Allow: / - ให้ indexation เต็ม
วิธีการลบเว็บไซต์จากปัญหาทั้งหมดเพื่อโปรโตคอล HTTPS
(Https://yourserver.com/robots.txt):
User-agent: *
Disallow: / บ้านที่สมบูรณ์เกี่ยวกับการจัดทำดัชนี
เร่งทรัพยากรที่กำจัด URL- จาก Google SERPs
หากคุณไม่ต้องการที่จะรออีก indexation และเว็บไซต์ที่คุณต้องการซ่อนเหมือนผมแนะนำให้ใช้ http://services.google.com/urlconsole/controller บริการโดยเร็วที่สุด robots.txt ก่อนจะต้องมีการวางไว้ในไดเรกทอรีรากของเซิร์ฟเวอร์เว็บไซต์ มันควรจะกำหนดคำแนะนำที่เหมาะสม
หากตัวชี้เหตุผลบางอย่างที่ไม่สามารถแก้ไขได้ในไดเรกทอรีรากสร้างมันมากพอในโฟลเดอร์ที่มีเป้าหมายที่คุณต้องการจะซ่อนตัวจากเครื่องมือค้นหา เมื่อคุณทำเช่นนี้และอ้างถึงการให้บริการโดยอัตโนมัติลบอยู่ไฮเปอร์ Google จะไม่สแกนโฟลเดอร์ที่สะกดออกข้อบกพร่องใน robots.txt แต่
ระยะเวลาการล่องหนนี้ถูกกำหนดเป็นเวลา 3 เดือน หลังจากช่วงเวลานี้ไดเรกทอรีถอนตัวออกจากปัญหาจะอีกครั้งจะประมวลผลโดยเซิร์ฟเวอร์ของ Google
H โอ๊ยจะลบเว็บไซต์เพื่อสแกนบางส่วน
เมื่อบอค้นหาอ่านเนื้อหาของ robots.txt ที่การตัดสินใจบางอย่างจะทำบนพื้นฐานของเนื้อหา สมมติว่าคุณต้องการที่จะแยกออกจากการแสดงไดเรกทอรีที่เรียกว่ารูปร่างทางกายวิภาคทั้งหมด มันก็เพียงพอที่จะกำหนดกฎระเบียบดังกล่าว
User-agent: Googlebot
Disallow: / รูปร่างทางกายวิภาค
หรือตัวอย่างเช่นคุณต้องการที่จะไม่สร้างดัชนีทุกประเภทภาพ .gif การทำเช่นนี้เพิ่มรายการต่อไปนี้:
User-agent: Googlebot
ไม่อนุญาตให้ใช้: /*.gif$
นี่เป็นอีกตัวอย่างหนึ่ง ปล่อยให้พวกเขาถูกลบออกจากการแยกวิเคราะห์ข้อมูลเกี่ยวกับหน้าเว็บที่สร้างแบบไดนามิกขณะที่การเพิ่มประเภทรายการดัชนี:
User-agent: Googlebot
Disallow: / *?
ที่เกี่ยวกับและสกิลออกกฎสำหรับเครื่องมือค้นหา อีกสิ่งหนึ่งก็คือว่ามันมีความสะดวกมากขึ้นเพียงแค่ใช้เมตาแท็กนี้ และเว็บมาสเตอร์มักจะใช้เพียงเช่นมาตรฐานการควบคุมการทำงานของเครื่องมือค้นหา แต่เราจะหารือเกี่ยวกับเรื่องนี้ในบทความในอนาคต
Similar articles
Trending Now