top of page

ค้นหาคำตอบ Technical SEO คืออะไร?

  • Writer: วีรยุทธ ชาญสุไชย
    วีรยุทธ ชาญสุไชย
  • 2 days ago
  • 2 min read

Three Circle represents the connect between On-page SEO, Off-page SEO and slightly bigger (more important) Technical SEO

บ่อยครั้งที่การทำ SEO จะมุ่งเน้นไปที่ On-page SEO และ Backlink (หรือ Off-page SEO) แต่ในความเป็นจริงแล้วถึงแม้จะทำ SEO ทั้ง 2 อย่างที่กล่าวมาอย่างเต็มที่ แต่ถ้า Search Engine ไม่สามารถ Crawl และ Index เพื่อนำเว็บไซต์หรือหน้าเว็บนั้นไปแสดงผลบนหน้าผลการค้นหา (SERP) ได้ ก็แทบไม่เกิดประโยชน์


ความสำคัญของ Technical SEO คือเป็น 1 ใน 3 แก่นหลักหรือหัวใจสำคัญของการทำ SEO ซึ่งอาจจะเหมือนว่ามีความสำคัญเท่า ๆ กัน แต่ที่จริง Technical SEO มีความสำคัญกว่า On-page SEO และ Off-page SEO ในระดับหนึ่ง


หากเปรียบเทียบ Technical SEO ให้เห็นภาพชัด ๆ ก็คือ


  1. Content (On-Page SEO) เปรียบเสมือนสินค้าที่ขาย

  2. Off-page คือ การทำการตลาดให้ผู้คนรู้จัก

  3. Technical SEO จะเป็นเสมือนโครงสร้างหลักของธุรกิจ นั่นคือ โรงงาน เส้นทางโลจิสติกส์ และ พื้นที่ขาย (หน้าร้าน, Online)


ถ้าเทียบในลักษณะนี้ ต่อให้สินค้า (Content) ดี, การตลาดดี แต่ถ้าโครงสร้างธุรกิจไม่ดีหรือแย่ ก็อาจจะทำไม่ได้แม้แต่การผลิตสินค้าเพื่อขาย


ดังนั้น Technical SEO คือ การวางรากฐานในการทำ SEO ให้ออกมาสมบูรณ์ นั่นคือ สามารถส่งต่อแนวคิด ไอเดีย ธุรกิจ หรือ สินค้า ให้คนหมู่มากสามารถเข้าถึงได้ ซึ่งก็คือการวางรากฐานเว็บไซต์ให้ Search Engine ต่าง ๆ สามารถ Crawl (สำรวจข้อมูล) และ Index (จัดเก็บลงในฐานข้อมูล) ได้



พื้นฐานการทำ Technical SEO


พื้นฐานของการทำ SEO อาจมีความตรงไปตรงมา แต่สำหรับ Technical SEO จะมีความซับซ้อน เข้าใจยากกว่าพอสมควร ดังนั้นเราจะไปเริ่มจากการทำความเข้าใจ Search Engine ก่อน



  1. เข้าใจการ Crawling เว็บไซต์


การ Crawling คือการที่ Search Engine สำรวจข้อมูลของเว็บไซต์ในแต่ละหน้า และเดินทางผ่าน Link ต่าง ๆ ในหน้านั้น เพื่อเข้าถึงข้อมูลในหน้าอื่น ๆ ซึ่งเราพอจะควบคุมการ Crawling ได้บ้างเล็กน้อย โดยมีตัวเลือกดังนี้


Robots.txt


เราสามารถกำหนดใน robots.txt ได้ ว่าเราอยากหรืออนุญาตให้ Search Engine เข้าไปสำรวจหน้าเว็บหน้าใดได้บ้าง


Robots.txt คืออะไร?

ตัวอย่างของ robots.txt ของเว็บไซต์ ซึ่งมีการไม่อนุญาตให้ Search Engine เก็บข้อมูลในหน้า admin และ private









Robots.txt คือไฟล์ text ที่อยู่ในโฟลเดอร์ Root Directory ของเว็บไซต์ ซึ่งทำหน้าที่โดยตรงในการสื่อสาร ให้ข้อมูลกับ web crawler หรือ bot ว่าอนุญาตให้เข้าไปเก็บข้อมูลในส่วนใดของเว็บไซต์ได้บ้าง


วิธีตั้งค่า robots.txt ให้กับหน้าเว็บที่ไม่ต้องการให้ bot มา Crawl สมมุติเราไม่ต้องการให้ bot Crawl หน้านี้ www.something.com/blogs/how-to-play-guitar/ เราก็จะพิมพ์เพิ่มคำสั่ง Disallow: /how-to-play-guitar/ ลงในไฟล์ robots.txt



จำกัดการเข้าถึงหน้าเว็บ


การจำกัดการเข้าถึงจะเหมาะกับการใช้งานภายในองค์กรหรือระบบปิด เช่น อนุญาตให้เฉพาะบาง IP เท่านั้น ที่สามารถเข้าถึงหน้าเว็บหน้าที่ต้องการได้



Crawl rate


เราสามารถกำหนดในไฟล์ robots.txt ได้ ว่าต้องการให้ Search Engine (ยกเว้น Google*) เข้ามา Crawl เว็บเราบ่อยแค่ไหน

ในอดีตเราพอกำหนดอัตราความถี่ในการ Crawl (Crawl Rate) ได้ใน Search Console แต่ในปัจจุบันไม่สามารถทำได้แล้ว เนื่องจาก Google ให้เหตุผลว่าแทบไม่ค่อยมีคนใช้งานฟีเจอร์ดังกล่าว



ตรวจสอบการ Crawl อย่างไร


การตรวจสอบการ Crawl ของ Google ทำได้ง่าย ๆ เพียงคลิก Open Report ที่ “Crawl stats” ในเมนู Setting ของ Google Search Console


ภาพ screencapture จากแพลตฟอร์ม Google Search Console สำหรับตรวจสอบการ Crawl

แต่ละเว็บไซต์จะได้รับ Crawl budget หรือจำนวนหน้าที่ Bot จะมาตรวจสอบ ไม่เท่ากัน ซึ่งเกิดจากความถี่ที่ Google ต้องการ Crawl และจำนวนที่เว็บไซต์อนุญาตให้ Crawl หน้าเว็บที่ได้รับความนิยมและมีการเปลี่ยนแปลงบ่อย รวมถึงมี Backlink ที่มีคุณภาพ เนื้อหาเชื่อมโยงกัน ก็จะได้รับการ Crawl บ่อยขึ้น


หลังจากหน้าเว็บได้รับการ Crawl ก็จะมีการเก็บข้อมูลและ Index (หรือบันทึกข้อมูลลงระบบ)


  1. เข้าใจการ Index เว็บไซต์


Robots directives หรือการเขียนคำสั่งสำหรับ Bot


ปกติแล้วข้อมูลส่วน <head> ของเว็บไซต์จะออกแบบมาเพื่อให้ข้อมูลกับระบบต่าง ๆ รวมถึง Search Engine โดย robot meta tag จะสามารถเขียนคำสั่งไม่ให้ Bot มา index หน้าเว็บได้


เช่น <meta name="robots" content="noindex" />


Canonicalization


ทุกครั้งที่เนื้อหาบนเว็บไซต์มีความคคล้ายคลึงกัน Google จะเลือกเพียงหน้าเดียวไป Index สิ่งนี้เราเรียกว่า Canonicalization ทำให้ มีเพียง URL เดียวเท่านั้นที่ Google นำไปแสดงผลในหน้า SERP (Search Engine Result Page) วิธีที่เราสามารถเลือก Canonical URL สามารถทำได้โดยวิธีเหล่านี้


Canonical tags


ติดตั้ง<link rel="canonical" href="https://example.com/" /> บน <head> ของหน้าที่ต้องการ

แต่โดยมาก CMS จะมีฟีเจอร์ให้ผู้ใช้สามารถกำหนด Canonical page ได้ง่าย ๆ


เราสามารถตรวจสอบได้ว่า Google เลือกหน้าไหนเป็น Canonical URL ได้ที่เมนู URL Inspection บน Google Search Console



  1. เพิ่ม Internal Link


Internal link คือลิงก์ที่เชื่อมโยงหน้าต่าง ๆ ภายในเว็บไซต์ การมี Internal Link จะทำให้ Bot เจอหน้าอื่น ๆ ในเว็บไซต์ และช่วยให้ติดอันดับได้ดีขึ้น โดยเฉพาะ Internal Link ที่เชื่อมโยงกับหน้าเว็บที่มีเนื้อหาเชื่อมโยงกัน



  1. ใส่ Schema Markup


Schema markup เป็นโค้ดที่ช่วยเพิ่มข้อมูลให้กับ Search Engine เข้าใจเนื้อหาบนหน้าเว็บนั้น ๆ ได้ดีขึ้น Google เองมี Search Gallery ที่แสดงรูปแบบการแสดงผลการ Search ในรูปแบบต่าง ๆ ซึ่งหน้าเว็บจะต้องมี Schema Markup เพื่อรองรับฟีเจอร์ดังกล่าว



สำหรับทั้งหมดนี้จะเป็น Technical SEO ที่ Users ส่วนใหญ่สามารถทำเองได้ โดยถ้าสร้างเว็บไซต์บน CMS ต่าง ๆ การทำ Technical SEO เบื้องต้นก็จะยิ่งง่ายขึ้น เพราะมีเครื่องมือ หรือ Plug-in ต่าง ๆ ที่คอยช่วยเหลือในการทำ Technical SEO ตามที่กล่าวไปในบทความนี้


การทำ Technical SEO ถือว่ามีความสำคัญกว่า On-page SEO และ Off-page SEO เนื่องจาก Technical SEO ค่อนข้างมีผลกับพื้นฐานของเว็บไซต์ และยังเป็นสิ่งจำเป็นอย่างมีในยุคที่การ Search รูปแบบใหม่ ๆ เกิดขึ้นจากพลังของ AI สามารถอ่านทำความเข้าใจความสำคัญได้ที่ การทำ SEO ปี 2025


ขอขอบคุณข้อมูลจาก Search Engine Land และ Ahrefs



Comments


Commenting on this post isn't available anymore. Contact the site owner for more info.
bottom of page