- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день! Страницы сайта ошибочно признались дубликатами и исключены из индексирования и ранжирования.
При этом полностью проигнорирован атрибут rel="canonical" и запрет на индексирование в robots.txt
Примеры:
Вместо страницы
проиндексирована и ранжируется страницапри этом на странице стоит тег
кроме того индексация запрещена в robots.txt правилом Disallow: /*sort*
Вместо страницы
проиндексирована и ранжируется страница при этом на странице стоит тегкроме того индексация запрещена в robots.txt правилом Disallow: /*sort*
В уведомлениях вебмастера:
Старый статус: В поиске
Новый статус: Дубль
Страница дублирует уже представленную в поиске страницу
При этом на страницах абсолютно разный контент и мета-теги.
Позиции полностью рухнули. Кто сталкивался с подобным? Платону отписался.
Так не правильно.
Надо не в роботсе закрывать, а через мета-тег noindex.
UPD - Не обратил внимания, что вопрос про Яндекс. Обратите внимание на регистр в robots.txt:
индексация запрещена в robots.txt правилом Disallow: /*sort*
В урле у вас буквы большие, для ПС это разные вещи - https://yandex.ru/support/webmaster/controlling-robot/
При этом на страницах абсолютно разный контент и мета-теги.
проверяйте доступность сайта, когда абсолютно разные страницы признаются дублями это связано с недоступностью сайта - по всем урлам отдаётся одна заглушка (например, сообщение об ошибке и код ответа 200)
плюс обратите внимание на корректность конечных / в url
https://semena-zakaz.ru/catalog/semena/semena-ovoshchey/ogurtsy/
https://semena-zakaz.ru/catalog/semena/semena-tsvetov
https://semena-zakaz.ru/catalog/semena/semena-ovoshchey/tomaty/
у вас то со слешем на конце, то без, а в каноникл такая же каша?
P.S. и да каноникл для яндекса не указ
проверяйте доступность сайта, когда абсолютно разные страницы признаются дублями это связано с недоступностью сайта - по всем урлам отдаётся одна заглушка (например, сообщение об ошибке и код ответа 200)
плюс обратите внимание на корректность конечных / в url
у вас то со слешем на конце, то без, а в каноникл такая же каша?
P.S. и да каноникл для яндекса не указ
Спасибо, Платоны ответили, действительно сервер отдавал Mysql connect error: (2002) Connection refused (400). Но серверные утверждают, что было 8395 обращений от YandexBot, у всех код 200, кроме 43 запросов.
Будем разбираться.
Слеш на конце все норм, редирект стоит, просто так ссылку скопировал.
Но проверка ответа сервера вот такую дичь выдает на внутрненних страницах, описание ошибки не нашел в документации:
---------- Добавлено 13.04.2020 в 17:41 ----------
Надо не в роботсе закрывать, а через мета-тег noindex.
UPD - Не обратил внимания, что вопрос про Яндекс. Обратите внимание на регистр в robots.txt:
В урле у вас буквы большие, для ПС это разные вещи - https://yandex.ru/support/webmaster/controlling-robot/
Поправил, спасибо, не знал про регистр