Chương trình -30% trọn đời Cloud VPS

Hỏi đáp Tối ưu Robots.txt chuẩn nhất cho Blogspot (Blogger)

Thảo luận trong 'Hỏi đáp Seo - Trợ giúp Seo' bắt đầu bởi phukiengiabuon, 28 Tháng bảy 2018.

  1. phukiengiabuon

    phukiengiabuon New Member

    Chào cả nhà ạ!
    Em là tvm, lần đầu đăng bài giúp đỡ mong mọi người giúp đợ ạ, nếu có gì sai sót mong ad nhắc nhở ạ
    Hiện tại em đang làm blog chia sẻ kinh nghiệm sửa chữa điện thoại, view hàng ngày khoảng 2k. Blog có rất nhiều label, để google index các label đó sẽ dẫn đến hiện tượng trùng lập thẻ tiêu đề và mô tả. Em chỉ muốn g index bài viết và các trang trong blog, ngoài ra thì chặn không cho index label, /search, /*?updated-max=*....

    Thẻ Robots.txt tùy chỉnh

    User-agent: Mediapartners-Google
    Disallow:
    User-agent: *
    Allow: /
    Disallow: /search
    Disallow: /*?updated-max=*
    Disallow: *max-results=*
    Disallow: *archive.html
    Disallow: *?m=0
    Sitemap: tenblog/feeds/posts/default?orderby=UPDATED
    Sitemap: tenblog/sitemap.xml

    Thẻ Robots.txt tùy chỉnh: chọn all, noodp

    Các bác xem giúp em như vậy đã đủ và chuẩn seo chưa ạ

    Cám ơn mọi người, chúc mọi người 1 ngày tốt lành ạ
     
  2. hoangdiep

    hoangdiep New Member

    hình như sitemap của bạn bị sai hay sao ý.!
     
  3. th0nggaday

    th0nggaday New Member

    sitemap của mình có cái gì mà max 500 ở cuối cơ, hay là mỗi cái 1 kiểu nhỉ
     

Chia sẻ trang này

Users Viewing Thread (Users: 0, Guests: 0)