- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день! Страницы сайта ошибочно признались дубликатами и исключены из индексирования и ранжирования.
При этом полностью проигнорирован атрибут rel="canonical" и запрет на индексирование в robots.txt
Примеры:
Вместо страницы
проиндексирована и ранжируется страницапри этом на странице стоит тег
кроме того индексация запрещена в robots.txt правилом Disallow: /*sort*
Вместо страницы
проиндексирована и ранжируется страница при этом на странице стоит тегкроме того индексация запрещена в robots.txt правилом Disallow: /*sort*
В уведомлениях вебмастера:
Старый статус: В поиске
Новый статус: Дубль
Страница дублирует уже представленную в поиске страницу
При этом на страницах абсолютно разный контент и мета-теги.
Позиции полностью рухнули. Кто сталкивался с подобным? Платону отписался.
Так не правильно.
Надо не в роботсе закрывать, а через мета-тег noindex.
UPD - Не обратил внимания, что вопрос про Яндекс. Обратите внимание на регистр в robots.txt:
индексация запрещена в robots.txt правилом Disallow: /*sort*
В урле у вас буквы большие, для ПС это разные вещи - https://yandex.ru/support/webmaster/controlling-robot/
При этом на страницах абсолютно разный контент и мета-теги.
проверяйте доступность сайта, когда абсолютно разные страницы признаются дублями это связано с недоступностью сайта - по всем урлам отдаётся одна заглушка (например, сообщение об ошибке и код ответа 200)
плюс обратите внимание на корректность конечных / в url
https://semena-zakaz.ru/catalog/semena/semena-ovoshchey/ogurtsy/
https://semena-zakaz.ru/catalog/semena/semena-tsvetov
https://semena-zakaz.ru/catalog/semena/semena-ovoshchey/tomaty/
у вас то со слешем на конце, то без, а в каноникл такая же каша?
P.S. и да каноникл для яндекса не указ
проверяйте доступность сайта, когда абсолютно разные страницы признаются дублями это связано с недоступностью сайта - по всем урлам отдаётся одна заглушка (например, сообщение об ошибке и код ответа 200)
плюс обратите внимание на корректность конечных / в url
у вас то со слешем на конце, то без, а в каноникл такая же каша?
P.S. и да каноникл для яндекса не указ
Спасибо, Платоны ответили, действительно сервер отдавал Mysql connect error: (2002) Connection refused (400). Но серверные утверждают, что было 8395 обращений от YandexBot, у всех код 200, кроме 43 запросов.
Будем разбираться.
Слеш на конце все норм, редирект стоит, просто так ссылку скопировал.
Но проверка ответа сервера вот такую дичь выдает на внутрненних страницах, описание ошибки не нашел в документации:
---------- Добавлено 13.04.2020 в 17:41 ----------
Надо не в роботсе закрывать, а через мета-тег noindex.
UPD - Не обратил внимания, что вопрос про Яндекс. Обратите внимание на регистр в robots.txt:
В урле у вас буквы большие, для ПС это разные вещи - https://yandex.ru/support/webmaster/controlling-robot/
Поправил, спасибо, не знал про регистр