Công cụ Tìm kiếm Tìm, Thu thập thông tin và Lập chỉ mục Nội dung của Bạn như thế nào?

Search Engine Optimization

Tôi không thường khuyên khách hàng nên xây dựng hệ thống quản lý nội dung hoặc thương mại điện tử của riêng họ vì tất cả các tùy chọn khả năng mở rộng không nhìn thấy được cần ngày nay - chủ yếu tập trung vào tối ưu hóa tìm kiếm và xã hội. Tôi đã viết một bài báo trên cách chọn CMS và tôi vẫn chỉ cho các công ty mà tôi làm việc cùng bị cám dỗ chỉ để xây dựng hệ thống quản lý nội dung của riêng họ.

Tuy nhiên, có những trường hợp hoàn toàn cần thiết phải có một nền tảng tùy chỉnh. Tuy nhiên, khi đó là giải pháp tối ưu, tôi vẫn thúc đẩy khách hàng của mình xây dựng các tính năng cần thiết để tối ưu hóa trang web của họ cho tìm kiếm và mạng xã hội. Về cơ bản, có ba tính năng chính cần thiết.

  • robots.txt
  • Sơ đồ trang web XML
  • Siêu dữ liệu

Tệp Robots.txt là gì?

robots.txt tập tin - cái robots.txt tệp là một tệp văn bản thuần túy nằm trong thư mục gốc của trang web và cho các công cụ tìm kiếm biết chúng nên bao gồm và loại trừ những gì khỏi kết quả tìm kiếm. Trong những năm gần đây, các công cụ tìm kiếm cũng yêu cầu bạn bao gồm đường dẫn đến một sơ đồ trang XML trong tệp. Đây là một ví dụ của tôi, cho phép tất cả các bot thu thập dữ liệu trang web của tôi và cũng hướng chúng đến sơ đồ trang XML của tôi:

User-agent: *
Sitemap: https://martech.zone/sitemap_index.xml

Sơ đồ trang web XML là gì?

Sơ đồ trang web XML - Cũng giống như HTML để xem trong trình duyệt, XML được viết để tiêu hóa theo chương trình. Sơ đồ trang XML về cơ bản là một bảng của mọi trang trên trang web của bạn và thời điểm nó được cập nhật lần cuối. Các sơ đồ trang XML cũng có thể được xâu chuỗi… đó là một Sơ đồ trang web XML có thể tham chiếu đến một Sơ đồ trang web khác. Điều đó thật tuyệt nếu bạn muốn tổ chức và chia nhỏ các yếu tố của trang web một cách hợp lý (Câu hỏi thường gặp, trang, sản phẩm, v.v.) thành Sơ đồ trang web của riêng chúng.

Sơ đồ trang web rất cần thiết để bạn có thể cho các công cụ tìm kiếm biết nội dung bạn đã tạo và thời điểm nó được chỉnh sửa lần cuối một cách hiệu quả. Quá trình công cụ tìm kiếm sử dụng khi truy cập trang web của bạn sẽ không hiệu quả nếu không triển khai sơ đồ trang web và các đoạn trích.

Không có Sơ đồ trang web XML, bạn đang mạo hiểm để trang của mình không bao giờ bị phát hiện. Điều gì sẽ xảy ra nếu bạn có một trang đích sản phẩm mới không được liên kết nội bộ hoặc bên ngoài. Làm thế nào để Google phát hiện ra nó? Nói một cách đơn giản… cho đến khi tìm thấy một liên kết đến nó, bạn sẽ không bị phát hiện. Rất may, các công cụ tìm kiếm cho phép hệ thống quản lý nội dung và nền tảng thương mại điện tử trải thảm đỏ cho chúng!

  1. Google phát hiện ra một liên kết bên ngoài hoặc nội bộ đến trang web của bạn.
  2. Google lập chỉ mục trang và xếp hạng trang đó theo nội dung của nó cũng như nội dung và chất lượng của trang của liên kết giới thiệu.

Với Sơ đồ trang web XML, bạn sẽ không để việc khám phá nội dung của mình hoặc việc cập nhật nội dung của bạn ngẫu nhiên! Quá nhiều nhà phát triển cố gắng sử dụng các phím tắt khiến họ cũng bị tổn hại. Họ xuất bản cùng một đoạn mã chi tiết trên trang web, cung cấp thông tin không liên quan đến thông tin trang. Họ xuất bản một sơ đồ trang web có cùng ngày tháng trên mọi trang (hoặc tất cả chúng được cập nhật khi một trang cập nhật), đưa ra hàng đợi cho các công cụ tìm kiếm rằng họ đang đánh lừa hệ thống hoặc không đáng tin cậy. Hoặc họ hoàn toàn không ping các công cụ tìm kiếm… vì vậy công cụ tìm kiếm không nhận ra rằng thông tin mới đã được xuất bản.

Siêu dữ liệu là gì? Vi dữ liệu? Đoạn giàu?

Đoạn mã chi tiết là vi dữ liệu được gắn thẻ cẩn thận được ẩn khỏi người xem nhưng hiển thị trong trang để các công cụ tìm kiếm hoặc các trang web truyền thông xã hội sử dụng. Đây được gọi là siêu dữ liệu. Google tuân theo Schema.org làm tiêu chuẩn để bao gồm những thứ như hình ảnh, tiêu đề, mô tả… cũng như rất nhiều đoạn mã thông tin khác như giá cả, số lượng, thông tin vị trí, xếp hạng, v.v. Lược đồ sẽ nâng cao đáng kể khả năng hiển thị công cụ tìm kiếm của bạn và khả năng người dùng sẽ nhấp vào xuyên qua.

Facebook sử dụng OpenGraph (tất nhiên chúng không thể giống nhau), Twitter thậm chí còn có một đoạn mã để chỉ định hồ sơ Twitter của bạn. Ngày càng có nhiều nền tảng sử dụng siêu dữ liệu này để xem trước các liên kết được nhúng và thông tin khác khi chúng xuất bản.

Các trang web của bạn có ý nghĩa cơ bản mà mọi người hiểu khi họ đọc các trang web. Nhưng các công cụ tìm kiếm có hiểu biết hạn chế về những gì đang được thảo luận trên các trang đó. Bằng cách thêm các thẻ bổ sung vào HTML của các trang web của bạn — các thẻ có nội dung “Xin chào công cụ tìm kiếm, thông tin này mô tả bộ phim hoặc địa điểm cụ thể này hoặc người hoặc video” —bạn có thể giúp các công cụ tìm kiếm và các ứng dụng khác hiểu rõ hơn về nội dung của bạn và hiển thị nó một cách hữu ích, phù hợp. Vi dữ liệu là một tập hợp các thẻ, được giới thiệu cùng với HTML5, cho phép bạn thực hiện điều này.

Schema.org, MicroData là gì?

Tất nhiên, không ai trong số này là bắt buộc… nhưng tôi thực sự khuyên bạn nên sử dụng chúng. Ví dụ, khi bạn chia sẻ một liên kết trên Facebook và không có hình ảnh, tiêu đề hoặc mô tả nào xuất hiện… sẽ rất ít người quan tâm và thực sự nhấp qua. Và nếu các đoạn lược đồ của bạn không có trong mỗi trang, tất nhiên bạn vẫn có thể xuất hiện trong kết quả tìm kiếm… nhưng đối thủ cạnh tranh có thể đánh bại bạn khi họ có thông tin bổ sung được hiển thị.

Đăng ký Sơ đồ trang web XML của bạn với Search Console

Điều bắt buộc là, nếu bạn đã xây dựng nội dung hoặc nền tảng thương mại điện tử của riêng mình, thì bạn phải có một hệ thống con ping các công cụ tìm kiếm, xuất bản vi dữ liệu và sau đó cung cấp một sơ đồ trang web XML hợp lệ để tìm thấy nội dung hoặc thông tin sản phẩm!

Khi tệp robots.txt, sơ đồ trang web XML và đoạn mã chi tiết được tùy chỉnh và tối ưu hóa trên toàn bộ trang web của bạn, đừng quên đăng ký Search Console của mỗi công cụ tìm kiếm (còn được gọi là công cụ Quản trị trang web) nơi bạn có thể theo dõi tình trạng và khả năng hiển thị của trang web trên công cụ tìm kiếm. Bạn thậm chí có thể chỉ định đường dẫn Sơ đồ trang web của mình nếu không có đường dẫn nào được liệt kê và xem công cụ tìm kiếm đang sử dụng nó như thế nào, có bất kỳ vấn đề nào với nó hay không và thậm chí là cách sửa chúng.

Trải thảm đỏ cho các công cụ tìm kiếm và phương tiện truyền thông xã hội và bạn sẽ thấy trang web của mình xếp hạng tốt hơn, các mục của bạn trên các trang kết quả của công cụ tìm kiếm được nhấp qua nhiều hơn và các trang của bạn được chia sẻ nhiều hơn trên mạng xã hội. Nó tất cả cho biết thêm!

Cách Robots.txt, Sơ đồ trang web và MetaData hoạt động cùng nhau

Kết hợp tất cả các yếu tố này giống như trải thảm đỏ cho trang web của bạn. Đây là quá trình thu thập thông tin mà bot thực hiện cùng với cách công cụ tìm kiếm lập chỉ mục nội dung của bạn.

  1. Trang web của bạn có tệp robots.txt cũng tham chiếu đến vị trí Sơ đồ trang web XML của bạn.
  2. CMS hoặc hệ thống thương mại điện tử của bạn cập nhật Sơ đồ trang web XML với bất kỳ trang nào và xuất bản ngày hoặc chỉnh sửa thông tin ngày.
  3. CMS hoặc hệ thống thương mại điện tử của bạn ping các công cụ tìm kiếm để cho họ biết rằng trang web của bạn đã được cập nhật. Bạn có thể ping trực tiếp hoặc sử dụng RPC và một dịch vụ như Ping-o-matic để đẩy lên tất cả các công cụ tìm kiếm chính.
  4. Công cụ Tìm kiếm ngay lập tức quay lại, tôn trọng tệp Robots.txt, tìm các trang mới hoặc cập nhật thông qua sơ đồ trang web và sau đó lập chỉ mục trang.
  5. Khi lập chỉ mục trang của bạn, nó sử dụng vi dữ liệu đoạn mã phong phú để nâng cao trang kết quả của công cụ tìm kiếm.
  6. Khi các trang web có liên quan khác liên kết đến nội dung của bạn, nội dung của bạn được xếp hạng tốt hơn.
  7. Khi nội dung của bạn được chia sẻ trên phương tiện truyền thông xã hội, thông tin đoạn mã chi tiết được chỉ định có thể giúp xem trước nội dung của bạn một cách chính xác và hướng chúng đến hồ sơ xã hội của bạn.

2 Comments

  1. 1

Bạn nghĩ gì?

Trang web này sử dụng Akismet để giảm spam. Tìm hiểu cách xử lý dữ liệu nhận xét của bạn.