วันอาทิตย์ที่ 11 กันยายน พ.ศ. 2554

Search engine

Search Engine คืออะไร ?


              Search Engine คือ เครื่องมือการค้นหาข้อมูลผ่านอินเตอร์เน็ต ที่ทุกคนสามารถเข้าไปค้นหาข้อมูลผ่านอินเตอร์เน็ตก็ได้ โดย กรอก ข้อมูลที่ต้องการค้นหา หรือ Keyword (คีเวิร์ด) เข้าไปที่ช่อง Search Box แล้วกด Enter แค่นี้ข้อมูลที่เราค้นหาก็จะถูกแสดงออกมาอย่างมากมายก่ายกอง เพื่อให้เราเลือกข้อมูลที่เราโดนใจที่สุดเอามาใช้ งาน โดยลักษณะการแสดงผลของ Search Engine นั้นจะทำการแสดงผลแบบ เรียงอันดับ Search Results ผ่านหน้าจอคอมพิวเตอร์ของเรา






Search Engine มีกี่ประเภท ?

               Search Engine มี?3?ประเภท (ในวันที่ทำการศึกษาข้อมูลนี้และได้ทำการรวบรวมข้อมูล ผมสรุปได้?3 ประเภทหลัก) โดยมีหลักการทำงานที่ต่างกัน และ การจัดอันดับการค้นหาข้อมูลก็ต่างกันด้วยครับ เพราะมีลักษณะการทำงานที่ต่างกันนี่เองทำให้ โดยทั่ว ๆ ไปแล้วจะมีการแบ่งออกเป็นหลาย ๆ ประเภทด้วยกัน แต่ที่พอสรุปได้ก็มีเพียง?3 ประเภทหลัก ๆ ดังที่จะนำเสนอต่อไปนี้ครับ

             ประเภทที่ 1 Crawler Based Search Engines
             Crawler Based Search Engines คือ เครื่องมือการค้นหาบนอินเตอร์เน็ตแบบอาศัยการบันทึกข้อมูล และ จัดเก็บข้อมูลเป็นหลัก ซึ่งจะเป็นจำพวก Search Engine ที่ได้รับความนิยมสูงสุด เนื่องจากให้ผลการค้นหาแม่นยำที่สุด และการประมวลผลการค้นหาสามารถทำได้อย่างรวดเร็ว จึงทำให้มีบทบาทในการค้นหาข้อมูลมากที่สุดในปัจจุบัน
โดยมีองประกอบหลักเพียง 2 ส่วนด้วยกันคือ
1. ฐานข้อมูล โดยส่วนใหญ่แล้ว Crawler Based Search Engine เหล่านี้จะมีฐานข้อมูลเป็นของตัวเอง ที่มีระบบการประมวลผล และ การจัดอันดับที่เฉพาะ เป็นเอกลักษณ์ของตนเองอย่างมาก
2. ซอฟแวร์ คือเครื่องมือหลักสำคัญที่สุดอีกส่วนหนึ่งสำหรับ Serch Engine ประเภทนี้ เนื่องจากต้องอาศัยโปรแกรมเล็ก ๆ (ชนิดที่เรียกว่า จิ๋วแต่แจ๋ว) ทำหน้าที่ในการตรวจหา และ ทำการจัดเก็บข้อมูล หน้าเพจ หรือ เว็บไซต์ต่าง ๆ ในรูปแบบของการทำสำเนาข้อมูล เหมือนกับต้นฉบับทุกอย่าง ซึ่งเราจะรู้จักกันในนาม Spider หรือ Web Crawler หรือ Search Engine Robots
ตัวอย่างหนึ่งของ Crawler Based Search Engine ชื่อดัง
http://www.google.com



Crawler Based Search Engine ได้แก่อะไรบ้าง
จะยกตัวอย่างคร่าว ๆ ให้ได้เห็นกันเอาแบบที่เรา ๆ ท่าน ๆ รู้จักหนะครับก็ได้แก่? Google , Yahoo, MSN, Live, Search, Technorati (
สำหรับ blog)?ครับ ส่วนลักษณะการทำงาน และ การเก็บข้อมูงของ Web Crawler หรือ Robot หรือ Spider นั้นแต่ละแห่งจะมีวิธีการเก็บข้อมูล และ การจัดอันดับข้อมูลที่ต่างกันนะครับ เช่น คุณทำการค้นหาคำว่า “Search Engine คืออะไร” ผ่านทั้ง 5 แห่งที่ผมให้ไว้จะได้ผลการค้นหาที่ต่างกันครับ

             ประเภทที่ 2 Web Directory หรือ Blog Directory
             Web Directory หรือ Blog Directory คือ สารบัญเว็บไซต์ที่ให้คุณสามารถค้นหาข่าวสารข้อมูล ด้วยหมวดหมู่ข่าวสารข้อมูลที่เกี่ยวข้องกัน ในปริมาณมาก ๆ คล้าย ๆ กับสมุดหน้าเหลืองครับ ซึ่งจะมีการสร้าง ดรรชนี มีการระบุหมวดหมู่ อย่างชัดเจน ซึ่งจะช่วยให้การค้นหาข้อมูลต่าง ๆ ตามหมวดหมู่นั้น ๆ ได้รับการเปรียบเทียบอ้างอิง เพื่อหาข้อเท็จจริงได้ ในขณะที่เราค้นหาข้อมูล เพราะว่าจะมีเว็บไซต์มากมาย หรือ Blog มากมายที่มีเนื้อหาคล้าย ๆ กันในหมวดหมู่เดียวกัน ให้เราเลือกที่จะหาข้อมูลได้ อย่างตรงประเด็นที่สุด (ลดระยะเวลาได้มากในการค้นหา) ซึ่งผมจะขอยกตัวอย่างดังนี้


ODP Web Directory ชื่อดังของโลก ที่มี Search Engine มากมายใช้เป็นฐานข้อมูล Directory
1. ODP หรือ Dmoz ที่หลาย?ๆ คนรู้จัก ซึ่งเป็น Web Directory ที่ใหญ่ที่สุดในโลก Search Engine หลาย ๆ แห่งก็ใช้ข้อมูลจากที่แห่งนี้เกือบทั้งสิ้น เช่น
Google, AOL, Yahoo, Netscape และอื่น ๆ อีกมากมาย ODP มีการบันทึกข้อมูลประมาณ 80 ภาษาทั่วโลก รวมถึงภาษาไทยเราด้วยครับ (URL : http://www.dmoz.org )
2. สารบัญเว็บไทย
SANOOK ก็เป็น Web Directory ที่มีชื่อเสียงอีกเช่นกัน และเป็นที่รู้จักมากที่สุดในเมืองไทย (URL : http://webindex.sanook.com )
3. Blog Directory อย่าง
BlogFlux Directory ที่มีการเก็บข้อมูลเกี่ยวกับบล็อกมากมายตามหมวดหมู่ต่าง ๆ หรือ Blog Directory อื่น ๆ ที่สามารถหาได้จาก Make Many แห่งนี้ครับ

              ประเภทที่ 3 Meta Search Engine
              Meta Search Engine คือ Search Engine ที่ใช้หลักการในการค้นหาโดยอาศัย Meta Tag ในภาษา HTML ซึ่งมีการประกาศชุดคำสั่งต่าง ๆ เป็นรูปแบบของ Tex Editor ด้วยภาษา HTML นั่นเองเช่น ชื่อผู้พัฒนา คำค้นหา เจ้าของเว็บ หรือ บล็อก คำอธิบายเว็บหรือบล็อกอย่างย่อ
              ผลการค้นหาของ Meta Search Engine นี้มักไม่แม่นยำอย่างที่คิด เนื่องจากบางครั้งผู้ให้บริการหรือ ผู้ออกแบบเว็บสามารถใส่อะไรเข้าไปก็ได้มากมายเพื่อให้เกิดการค้นหาและพบเว็บ หรือ บล็อกของตนเอง และ อีกประการหนึ่งก็คือ มีการอาศัย Search Engine Index Server หลาย?ๆ แห่งมาประมวลผลรวมกัน จึงทำให้ผลการค้นหาข้อมูลต่าง ๆ ไม่เที่ยงตรงเท่าที่ควร.

              มาถึงตอนนี้หลาย ๆ ท่านที่เคยสงสัยว่า “Search Engine คืออะไร” คงได้หายสงสัยกันไปบ้างแล้วและเริ่มเข้าใจหลักการทำงานของ Search Engine กันมากขึ้น เพื่อจะได้เลือกใช้อย่างถูกต้องและตรงกับความต้องการของเราในการค้นหาข่าวสารข้อมูล สำหรับบทความ “Search Engine คืออะไร” นี้หากขาดตกบกพร่องประการใด หรือ ไม่ได้รับข้อมูลที่ชัดเจนท่านสามารถติชม หรือ ให้ข้อเสนอแนะต่าง ๆ ผ่าน Comments ของบทความชุดนี้เพื่อจะได้ทำการปรับปรุงและแก้ไขให้ได้ข้อมูลที่ดีที่สุดและ เป็นประโยชน์สำหรับ ผู้ที่ทำการค้นคว้างข้อมูลต่าง ๆ เพื่อนำไปใช้งาน

หลัการทำงานเสิร์ชเอนจิ้น
           หลักการทำงานของเสิร์ชเอนจิ้น โดยทั่วไปแล้ว หลักการที่สำคัญ และนับว่าเป็นหัวใจหลักของ โปรแกรมเสิร์ชเอนจิ้น จะมีลักษณะการแบ่ง การทำงานออกเป็น 3 ขั้นตอนดังต่อไปนี้

  • การตรวจค้นหาข้อมูล เพื่อแยกประเภทของข้อมูลที่มีเนื้อหาเกี่ยวข้องกัน
  • รวบรวมข้อมูล ที่ได้แยกเนื้อหาที่มีความเกี่ยวข้องกันไว้ที่เดียวกัน
  • แสดงผลการค้นหาข้อมูล ที่มีความเหมือนและมีความคล้ายคลึงกัน
     หลักการทำงานของโปรแกรม เสิร์ชเอนจิ้น จะเริ่มด้วยการส่ง Robot หรือบางครั้งเรียกว่า Spider ไปตรวจสอบรวบรวมเก็บข้อมูล ในส่วนของเว็บเพจ หรือเว็บไซต์ต่างๆ ที่มีอยู่จำนวนมากในฐานข้อมูล บนเครือข่ายอินเตอร์เน็ต โดยลักษณะการทำงาน ของตัวโปรแกรมที่ไปตรวจสอบ จะตรวจสอบ ทุกส่วนภายในเว็บนั้นๆ และเก็บข้อมูลที่เก็บอยู่ภายในเว็บไซต์ ตั้งแต่หน้าแรก และไล่ไปตามลิ้งต่างๆ บนหน้าเว็บนั้นๆ จากนั้นจะเก็บรวบรวมข้อมูลต่างๆ เข้าสู่ฐานข้อมูลของเสิร์ชเอนจิ้น เพื่อจัดเข้าเป็นหมวดหมู่ สำหรับ การค้นหาของผู้ใช้ต่อไป
     เมื่อผู้ใช้ต้องการจะค้นหาข้อมูลบางอย่าง เช่น ต้องการค้นหาข้อมูล เกี่ยวกับ แหล่งท่องเที่ยวต่างๆ อาจจะพิมพ์คำค้น หรือ คีย์เวิร์ด ลงไปในโปรแกรม ของเสิร์ชเอนจิ้น ด้วยคำว่า “สถานที่ท่องเที่ยวจังหวัดกำแพงเพชร” เมื่อเริ่ม การค้นหา เสิร์ชเอนจิ้น จะทำการประมวลผล หาข้อมูล จากเนื้อหาของหน้าเว็บไซต์ ที่ได้เก็บรวบรวมไว้ภายในฐานข้อมูล ที่ตรงและมีความใกล้เคียง หรือคล้ายกับ คีย์เวิร์ด และแสดงผลออกมาเป็นลำดับ จากข้อมูลที่ตรงกับผล ของการค้น จากมากไปหาน้อย

เสิร์ชเอนจิ้น ที่ได้รับความนิยมมากที่สุด
        
              ปัจจุบันมีผู้ที่ ต้องการเก็บรวบรวม หรือจัดทำ โปรแกรมเสิร์ชเอนจิ้น เพื่อทำการเก็บ รวบรวมข้อมูลจาก เว็บไซต์ ต่างๆ ไว้เป็นฐานข้อมูล ในการให้ความรู้ และง่ายต่อการการสืบค้น หาข้อมูล ตามความต้องการ ของผู้ใช้ อินเตอร์เน็ต เป็นจำนวนมาก แต่สำหรับ เว็บเสิร์ชเอนจิ้น ที่ได้รับความนิยม มากที่สุด ในปัจจุบันคือ Google, Yahoo! Search และ MSN Search
             ประวัติและหลักการทำงานของ เว็บเสิร์ชเอนจิ้น Google มีที่มาจาก วิทยานิพนธ์ของนาย Larry Page และนาย Sergey Brin ที่เป็นนักศึกษา ปริญญาเอก แห่งมหาวิทยาลัย Stanford ซึ่งทั้งคู่ได้มีความคิด สมมุติฐานเกี่ยวกับ โปรแกรมเสิร์ชเอนจิ้น ที่แสดงผลการค้นหา ที่มีความสัมพันธ์ กับเว็บไซต์ ที่มีประสิทธิภาพขึ้นกว่า การทำงานของเสิร์ชเอนจิ้น ในรูปแบบเดิม จากแนวคิดดังกล่าว ทำให้เป็นรากฐานของการสร้าง โปรแกรมเสิร์ชเอนจิ้นของ Google โดยจะให้น้ำหนักที่ว่า เว็บไซต์ใด หรือหน้าเว็บเพจใด ที่มีปริมาณ ลิงค์ หรือมีการเชื่อมโยงลิงค์ จากหน้าเว็บเพจอื่นมากเท่าได แสดงว่าเว็บนั้นๆ มีคุณภาพที่ดี ด้วยเหตุนี้ จึงทำให้แนวคิดดังกล่าวเป็น การวางรากฐานของ โปรแกรม เสิร์ชเอนจิ้น ของ Google ในเวลาต่อมานั่นเอง โดย ในเดือน กันยายน ค.ศ.1998 บริษัท Google, Inc. ได้ทำการจดทะเบียน และได้ถือกำเนิดขึ้น           หลักการเขียนบทความ หรือเนื้อหาเว็บไซต์ให้ถูกหลักเสิร์ชเอนจิ้น นั้นถือว่าเป็น ศาสตร์และศิลป์ อีกอย่างหนึ่งที่ นักเขียนเว็บไซต์ ต้องคำนึงถึง และพยายาม ชี้ให้เห็นถึง ความโดดเด่น ให้ผู้อ่านเกิดความสนใจ ในการบริการ หรือสินค้านั้นๆ
          นอกจากการมีเนื้อหาของเว็บไซต์ที่ดีแล้ว หลักของการทำ SEO (Search Engine Optimization) ผู้เขียนต้องเขียนเนื้อหาให้ มีความกลมกลืนกับ คีย์เวิร์ด ที่อยู่ในส่วนของ Title Tag  เพื่อรองรับกับเสิร์ชเอนจิ้น ให้สามารถเข้ามา ตรวจและทำการเก็บ ข้อมูลบนเนื้อหาของหน้าเว็บไซต์ ได้อย่างมีประสิทธิภาพ
เทคนิคสำหรับ หลักการเขียนบทความ (Copywriting) ที่นักเขียนเว็บไซต์ ที่ไม่ควรมองข้าม

  • ในหนึ่งหน้าเว็บเพจนั้น การใส่เนื้อหาของเว็บเพจ ที่เหมาะสมควรประมาณ 250 – 350 คำ
  • ต้องเขียนเนื้อหาของเว็บให้ มีความกลมกลืน โดยการแทรก คำค้น หรือ คีย์เวิร์ด ไว้ภายในเนื้อหาของเว็บไซต์ด้วย
  • คีย์เวิร์ดที่วางอยู่ภายในเว็บไซต์ เพื่อเป็นการเพิ่มความน่าสนใจ ควรจะมีตัวหนา H1 อยู่ตอนบนของเว็บไซต์ และการมีคีย์เวิร์ดที่เป็น ลิ้งอยู่ภายในเว็บไซต์ ด้วยก็จะเป็นการดี อีกด้วย
  • ภายในหน้าเว็บเพจ ควรจะวาง คีย์เวิร์ดไว้ในส่วน ALT เพื่อเป็นการ ตั้งชื่อให้กับรูปภาพ ที่เราได้นำมาแสดงภายในเว็บเพจ ด้วย
ชนิดของเสิร์ชเอนจิ้นมาเก็ตติ้ง
          
           เสิร์ชเอนจิ้น มาเก็ตติ้ง (SEM) เป็น การตลาดออนไลน์ ประเภทหนึ่ง ที่ช่วย เพิ่มการแสดงหน้าเว็บไซต์ ทำให้เว็บไซต์ ของเราเป็นที่รู้จักกันมากขึ้น เสิร์ชเอนจิ้นมาเก็ตติ้ง แบ่งออกเป็น 2 ชนิดได้แก่
  • SearchEngine Optimization (SEO) เป็นการเรียนรู้ การปรับแต่งเว็บไซต์ โดยทำตามเทคนิคต่างๆ เช่น การใช้คีย์เวิร์ด ที่เหมาะสมกับเว็บไซต์ การใช้ Web CEO ช่วยหาจุดบกพร่องของเว็บไซต์ ฯลฯ เพื่อเป็นการช่วยให้เว็บไซต์ หรือหน้าเว็บเพจ ติดอันดับต้นๆ ทางด้านซ้ายของเว็บไซต์เสิร์ชเอนจิ้น ไม่ว่าจะเป็น Google, Yahoo! Search, MSN Search เพราะเวลาที่คนต้องการค้นหาข้อมูลบางอย่าง ที่ต้องการรู้ จะพิมพ์คีย์เวิร์ด ลงไปในเว็บไซต์เสิร์ชเอนจิ้น จากนั้นเว็บเสิร์ชเอนจิ้น จะทำการประมวลผล แสดงผลเว็บไซต์ ที่มีคีย์เวิร์ดตรงกับเว็บไซต์ของเรา
  • Pay Per Click Advertising (PPC) หรือเรียกอีกอย่างว่า Search Engine Advertising ซึ่งเป็นการจ่ายเงินลงโฆษณาให้กับ เสิร์ชเอนจิ้น และทำตามเทคนิคต่างๆ เพื่อช่วยให้เว็บไซต์ติดอันดับต้นๆ ทางด้านขวา หรือในส่วนที่เรียกว่า Sponsored Link ของเว็บไซต์เสิร์ชเอนจิ้น ไม่ว่าจะเป็น Google, Yahoo! Search, MSN Search ในการคิดราคา อัตราการลงโฆษณา จะมีความแตกต่างกัน โดยผู้ลงโฆษณาแต่ละราย ต้องไปประมูล (Bid) คีย์เวิร์ดแข่งขันกัน ถ้าใครเสนอราคาสูงกว่า ก็จะได้ตำแหน่งที่ดีกว่าเป็นต้น ถ้าจะใช้วิธีนี้ในการโปรโมทเว็บไซต์ ลองเข้าไปศึกษา Google AdWords จะช่วยได้มากเลยครับ
 หลักการออกแบบเว็บไซต์ ให้ถูกหลักเสิร์ชเอนจิ้น

               ผลจากการสอบถาม เว็บมาสเตอร์ ในประเทศไทย ส่วนใหญ่ มักจะมีการออกแบบเว็บไซต์ ให้มีความสวยงาม และมีลูกเล่น ที่หลากหลาย ไม่ว่าจะเป็น การดีไซน์ ที่ใช้เทคนิค Flash, Frames หรือ JavaScript โดยที่ไม่ได้ เน้นความง่ายต่อการ มาเก็บข้อมูล ในเว็บไซต์ ของเสิร์ชเอนจิ้น แต่เน้นความสวยงาม ของเว็บไซต์อย่างเดียว
หลักการออกแบบเว็บไซต์ ให้ถูกหลักของเสิร์ชเอนจิ้น นั้น จะช่วยให้เว็บไซต์ ของเรา ได้รับการจัดเก็บข้อมูล (Index) จากเสิร์ชเอนจิ้นได้อย่างรวดเร็ว ที่สำคัญ จะช่วยให้เว็บไซต์ของเรา ได้รับการจัดอันดับที่ดี ในเสิร์ชเอนจิ้นได้
             โปรแกรม JavaScript เป็นอีกโปรแกรมหนึ่ง ที่เว็บมาสเตอร์ นิยมนำมาใช้ ในการสร้างเว็บเพจ เพื่อสร้างสีสันให้กับเว็บไซต์ของตัวเอง ไม่ว่าจะเป็น Pop-Up เพื่อตรวจสอบข้อมูลก่อนที่จะมีการ Submit ในแบบฟอร์ม, Rollovers/Mouseovers, Drop-Down Navigation เมนู ฯลฯ  
             โดยปรกติแล้ว การใช้ JavaScript เสิร์ชเอนจิ้น จะไม่สามารถที่จะ ตามลิ้งไปเก็บข้อมูล ของเว็บเพจหน้าต่างๆ ที่ฝังตัวอยู่ใน JavaScript ซึ่งจะส่งผลทำให้เว็บไซต์ของเรา ไม่ได้รับการเก็บข้อมูล (Index) จากเสิร์ชเอนจิ้น และยั้งทำให้ ต้องเสียเวลาในการดาวโหลด เว็บเพจหน้านั้นๆ นานขึ้นกว่าปรกติ นอกจากนี้ยังทำให้เกิดขยะ JavaScript ขึ้นเป็นจำนวนมาก เพราะกว่าที่ Robot ของเว็บเสิร์ชเอนจิน จะเจอตัวหนังสือตัวแรกของ Body ก็ต้องเสียเวลา อ่านขยะที่เกิดจาก JavaScript ประมาณกลางๆ หรือด้านล่างๆ ของ HTML Code ของเว็บเพจนั้นๆ  
             วิธีแก้ไขคือให้นำ JavaScript ไปใส่ในไฟล์แยกออกต่างหาก โดยตัดเอา เนื้อหาระหว่าง <script>………</script> ไปใส่ใน Text Editor เช่น Notepad จากนั้นให้ทำการ Save ชื่อไฟล์ให้มี นามสกุลเป็น .js แล้วใช้คำสั่ง สำหรับเรียกใช้ JavaScript ที่ต้องการนั้นมาแสดงผล (สมมติว่าเก็บไฟล์ JavaScript ชื่อว่า Test.js ไว้โฟร์เดอร์ images) สามารถเรียกใช้ไฟล์ ด้วยคำสั่งดังต่อไปนี้
<script language=”JavaScript” src=”images/Test.js” type=”text/javascript”> </script>


ปัญหาที่เสิร์ชเอนจิ้น ไม่ให้ความสำคัญกับเว็บไซต์ ที่ใช้Flash
          
            โปรแกรม Flash หรือ Macromedia Flash เป็นโปรแกรมที่สร้างขึ้นมา เพื่อให้เว็บบราวเซอร์ แสดงผล ภาพแบบเวกเตอร์ ภาพแบบราสเตอร์ และยังสามารถเล่น ไฟล์วีดิโอ และสามารถ เล่นเสียงได้อีกด้วย ด้วยเหตุนี้จึงทำให้ เทคโนโลยี Flash หรือ Macromedia Flash ได้รับความนิยม จากเว็บมาสเตอร์ ทั้งหลาย ที่ต้องการ นำเสนอผลงาน ในรูปแบบแอนิเมชั่น และ อินเตอร์แอกทีฟในเว็บ
ทำไมการสร้างเว็บไซต์ด้วย Flash หรือ Macromedia Flash จึงเป็นปัญหาต่อ เสิร์ชเอนจิ้น จากประสบการณ์ ที่ผ่านมาทำให้ทราบว่า ปัญหาที่เสิร์ชเอนจิ้น ไม่ให้ ความสำคัญกับเว็บไซต์ ที่ใช้ Flash เนื่องมาจากเหตุผล ดังต่อไปนี้
  • การใช้ Flash ทำเว็บไซต์ จะส่งผลทำให้ เนื้อหาที่เป็นตัวหนังสือ (Text) มีอยู่น้อยมาก หรือจากที่ผู้เขียนเคยลองเข้าไปดู บางเว็บที่ใช้ Flash ทำเว็บไซต์ ไม่มีเนื้อหาที่เป็นตัวหนังสือเลย ด้วยเหตุนี้ทำให้ เสิร์ชเอนจิ้น ไม่สามารถเข้าถึงตัวหนังสือ (Text) เพื่อเก็บในฐานข้อมูลของ เสิร์ชเอนจิ้นได้ และไม่สามารถทำการ Index ได้
  • นอกจากการใช้ Flash ทำเว็บไซต์ จะมีเนื้อหาของเว็บน้อยแล้ว ยังพบ อีกว่าลิ้ง ที่ออกไปหน้าอื่นๆ นั้นแทบจะไม่มีเลย ซึ่งเป็นปัญหาทำให้ Spider หรือโปรแกรม Robot ของเว็บเสิร์ชเอนจิ้น ไม่สามารถเข้าถึง และทำการ อินเดกช์ (Index) เว็บเพจอื่นๆ ได้
  • หลังจากที่เว็บบราวเซอร์ แสดงผลหรือโชว์ Flash Animation เสร็จเรียบร้อย แล้วโปรแกรม Flash จะทำการ Redirect เพื่อไปยัง หน้าถัดไปโดยอัตโนมัติ ซึ่งลักษณะนี้ จะทำให้ Spider หรือโปรแกรม Robot ของเว็บเสิร์ชเอนจิ้นมองว่า เป็นการเข้าข่ายการสแปมได้
         วิธีในการแก้ปัญหาเพื่อให้เว็บที่ใช้ Flash หรือ Macromedia Flash ได้รับการ Index จากเว็บเสิร์ชเอนจิ้น มีหลักในการ Optimization ที่ถูกต้องคือ ให้เว็บมาสเตอร์ ทำการสร้างเว็บเพจออกเป็น 2 แบบ ได้แก่ การสร้างแบบ Flash และการสร้างแบบ HTML หลักการมีอยู่ว่า ให้ทำการสร้างเว็บโฮมเพจ ที่มีเนื้อหา (Text) อยู่อย่างครบถ้วน โดยมีการแทรกคีย์เวิร์ด ต่างๆ ไว้ให้ถูกต้อง ตามหลักการ ของการทำ SEO โดยใช้ HTML จากนั้นเมื่อผู้เข้ามาชมเว็บไซต์ ต้องการเข้าไปดู ในเวอร์ชั่นของ Flash ก็สามารถคลิกเข้าไปดูได้
            





ที่มา   :      http://www.template-stores.com/Search-Engine-Marketing/Google-Search-Engines-Tips.html
    http://krukoon.wordpress.com/2010/04/19/search-engine-%E0%B8%84%E0%B8%B7%E0%B8%AD%E0%B8%AD%E0%B8%B0%E0%B9%84%E0%B8%A3/
    http://www.youtube.com/watch?v=AyXMOTHIqg8




ไม่มีความคิดเห็น:

แสดงความคิดเห็น