Как убрать дубли страниц

Тема в разделе "Общие вопросы", создана пользователем DroENG, 28 июл 2015.

  1. sibrus

    sibrus Пользователь

    Сообщения:
    96
    Симпатии:
    7
    спасибо
     
  2. kukumberg

    kukumberg Пользователь

    Сообщения:
    130
    Симпатии:
    3
    Как правильно добавить ссылку в меню на подкатегорию, если допустим у меня такой вид: сайт / категория / подкатегория.
    сайт / категория / подкатегория
    или
    сайт / подкатегория ?
     
  3. Zlata Jesen

    Zlata Jesen Продвинутый пользователь

    Сообщения:
    165
    Симпатии:
    98
    Измучилась я с этим гуглом. Теперь он добавил новые дубли (со старыми действительно все решилось само собой).
    Не нравятся ему страницы, где есть фильтр, тут же выдает сообщение о дублях метаописаний и т.п. Ссылки различаются так:

    Каноникал на странице с фильтром указан, но висят эти дубли уже месяц, не меньше...
    Может в robots что добавить? Там есть
    может надо изменить как?
    .......
    В принципе без разницы, каноникал прописан, проиндексируются нормально, ошибки сами со временем пропали.
     
  4. Vlad

    Vlad Эксперт

    Сообщения:
    4.129
    Симпатии:
    999
    если есть ссылки с &filter= то и в роботсе нужно добавить
    Код:
    Disallow: /*&filter=
     
    Zlata Jesen нравится это.
  5. vikaharkov

    vikaharkov Продвинутый пользователь

    Сообщения:
    676
    Симпатии:
    71
    За 120 баксов пару раз сайт отсканировать? Хорошее удовольствие.
    Netpeak Spider стал платным. Очень даже платным :cool:
     
  6. vikaharkov

    vikaharkov Продвинутый пользователь

    Сообщения:
    676
    Симпатии:
    71
    А этот метод кто нить пробовал?

    Альтернатива robots.txt
    Поделитесь мыслями, кто что думает
    Там о таком коде и методе пишут, при чем, тема давняя, 13-й год
    Код:
    <?php if(preg_match('#\?|&|%|/notify$|^/cart#', $_SERVER['REQUEST_URI'])){ ?>
    <meta name="robots" content="noindex, nofollow" />
    <?php } ?>