Яндекс вебмастер сообщает о критической ошибке. Подскажите как исправить данную ошибку?? Очень буду благодарен!!!
Поможет ли такая запись избавится от ошибки: User-agent: Yandex Clean-param: path/ в файле robots.txt ????
Это старые дубли скорей всего. Да и не дубли там, есть же каноникал. Вы откройте роботс и посмотрите внимательно как подобные пути закрыть, если необходимо Disallow: /*&sort=
Старых дублей быть недолжно. сайт только создан все товары свеже добавленные. Если это не дубли, то что? почему вебмастер яндекса указывает именно на дубли. Disallow: /*&sort= такой дислов есть в роботс.
Я показал пример првила для само изучения, а не решение. Создали сайт, добавили товар, проиндексировались ссылки без чпу. Потом включили чпу и результат.
https://full-index.ru/blog/page/naj...t-parametrami-v-jandeks-vebmaster-clean-param это во первых Во вторых на страницах должен быть редирект с кодом 301 если ЧПУ прописан
Умничать не хочу, но у меня на одном старом сайте (ИМ) была подобная проблема. Дубли: /index.php?route=information/information&path= /index.php?route=information/information&information_id=0 /details.html Я поставил Ваш запрос в роботс тхт и через сутки в Вебмастере словил вот это: Возможные проблемы Ошибки в файле robots.txt Файл robots.txt содержит ошибки. Это может привести к некорректному обходу и индексированию сайта. Проверьте файл robots.txt.
такая запись дала ошибку в вебмастере: Ошибки в файле robots.txt Файл robots.txt содержит ошибки. Это может привести к некорректному обходу и индексированию сайта. Проверьте файл robots.txt. Все ссылки которые в вебмастере обозначены как проблемные отдают редирект 301 Или я не правильно проверяю? Действительно так и было((. Непонятно почему только эти 5 ссылок попали в вебмастер как проблемные? Если 300 товаров добавлялись одинаковым способом.
вы какую-то дичь написали откуда и что вы взяли и вписали я не знаю, но там нет ни одного "запроса" или чего-либо подобного что призывает лезть в robots.txt напротив, там как раз таки призыв - не страдайте ерундой и не лезьте в robots.txt
То что правка robots.txt не поможет - это я уже понял. Страницы все отдают редирект 301. Если ты знаешь как исправить эту ошибку напиши решение в ЛС или тут на форуме.
Всем Добрый вечер, подскажите пожалуйста что нужно добавить в робот тхт чтобы убрать данную ошибку в get параметрах
Добрый день! У меня такой же вопрос - "Примеры страниц, которые содержат одинаковый контент и различаются только GET-параметрами в URL"