- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Не вопрос, просто порефлексировать...
Вот что это вообще такое
Яндекс сегодня вывалил в индекс страницы проиндексированные во 2,3...6-м месяце. Большинство из которых давно не существуют, они 404-е. Среди них целый кластер сайта, со 150 категориями и несколькими тысячами товаров. Весной удалил и уже забыл о нем. А сегодня он восстал из мертвых, и участвует в поиске...
Если храните это по 6-10 месяцев, а потом по каким-то причинам решаете публиковать, то нельзя ли хотя бы прочекивать на 404?)))
Здравствуйте! Для того, чтобы узнать об http-коде 404 со всех таких ссылок, поисковому роботу может потребоваться какое-то время, так как нужно переиндексировать каждую такую страницу. Вы можете ускорить процесс исключения из поиска ссылок с http-кодом 404, запретив их индексирование в файле robots.txt вашего сайта. В таком случае они смогут выпасть из выдачи в течение 1-2 недель. Подробнее о файле robots.txt вы можете прочитать в нашей Справке: https://yandex.ru/support/webmaster/controlling-robot/robots-txt.html
Здравствуйте! Для того, чтобы узнать об http-коде 404 со всех таких ссылок, поисковому роботу может потребоваться какое-то время, так как нужно переиндексировать каждую такую страницу. Вы можете ускорить процесс исключения из поиска ссылок с http-кодом 404, запретив их индексирование в файле robots.txt вашего сайта. В таком случае они смогут выпасть из выдачи в течение 1-2 недель. Подробнее о файле robots.txt вы можете прочитать в нашей Справке: https://yandex.ru/support/webmaster/controlling-robot/robots-txt.html
Да тут как бы даже и не про исключение из индекса. Дело в том, что эти страницы в нем и не были. Яндекс их считал как недостаточно качественные, и в индекс брать не хотел. Собственно, вот поэтому, и потому, что этих товаров больше нет у поставщиков, они были удалены. И вот спустя полгода они вдруг появляются в индексе...
И вы кстати упомянули про robots.txt. Я вот прямо сейчас пытаюсь удалить таким способом еще одну большую пачку ненужных товаров. 3,5 тыс. В правилах у вас макс размер файла 500 кб. Он у меня получился 250. Прошло полторы недели. Яндекс robots.txt не взял. Ну думаю, правила правилами, а наверно большой. Уменьшил до 1,5 тыс. строк (90 кб), прошла неделя - тоже не взял. Сейчас у меня там уже 500 строчек, пока прошло 4 дня...
Раньше для такого фокуса нужно было пару дней. Теперь что, действительно нужны недели?
Да тут как бы даже и не про исключение из индекса. Дело в том, что эти страницы в нем и не были. Яндекс их считал как недостаточно качественные, и в индекс брать не хотел. Собственно, вот поэтому, и потому, что этих товаров больше нет у поставщиков, они были удалены. И вот спустя полгода они вдруг появляются в индексе...
И вы кстати упомянули про robots.txt. Я вот прямо сейчас пытаюсь удалить таким способом еще одну большую пачку ненужных товаров. 3,5 тыс. В правилах у вас макс размер файла 500 кб. Он у меня получился 250. Прошло полторы недели. Яндекс robots.txt не взял. Ну думаю, правила правилами, а наверно большой. Уменьшил до 1,5 тыс. строк (90 кб), прошла неделя - тоже не взял. Сейчас у меня там уже 500 строчек, пока прошло 4 дня...
Раньше для такого фокуса нужно было пару дней. Теперь что, действительно нужны недели?
Думаю, здесь потребуется участие ребят из Вебмастера, нужно более подробно разобраться в причинах. Напишите, пожалуйста, им напрямую через форму обратной связи: https://yandex.ru/support/webmaster/troubleshooting.html Они вас уже ждут.
Уже почти как ГОД! Не работают в ЯВ раздел ссылки - стоит вообще ждать ? или все кануло в лето
Обещанного три года ждут..
Уже почти как ГОД! Не работают в ЯВ раздел ссылки - стоит вообще ждать ? или все кануло в лето
Здравствуйте! Работы ещё ведутся, точных сроков их окончания пока назвать не получится. Следите за новостями в блоге Вебмастера: https://webmaster.yandex.ru/blog Ребята обязательно всё расскажут.
Здравствуйте! Работы ещё ведутся, точных сроков их окончания пока назвать не получится. Следите за новостями в блоге Вебмастера: https://webmaster.yandex.ru/blog Ребята обязательно всё расскажут.
Работа ребят из вебмастера, сегодня заметил, они похоже не знают что такое верстка или это нововведение?
Думаю, здесь потребуется участие ребят из Вебмастера, нужно более подробно разобраться в причинах. Напишите, пожалуйста, им напрямую через форму обратной связи: https://yandex.ru/support/webmaster/troubleshooting.html Они вас уже ждут.
Ответ
Мы проверили ситуацию с запретами в robots.txt вашего сайта.
Сейчас директивы в файле robots.txt, к сожалению, не обрабатываются. Это связано с тем, что в файле указано огромное число директив. Рекомендуем по возможности сократить размер файла до 500 строк.
Основные требования к файлу robots.txt можно прочесть в нашей Справке.
Отдельное спасибо парням за ссылку на справку, где указано ограничение в 500 КБ. Что вообще не тоже самое. В итоге у меня сайт уже месяц без robots.txt, а вы даете людям опасные советы...
Шо интересно, еще 4 недели назад, убирал через robots.txt 800 страниц, robots считывался...
Работа ребят из вебмастера, сегодня заметил, они похоже не знают что такое верстка или это нововведение?
Здравствуйте! У меня такая ситуация не воспроизводится. Дело может быть в настройках вашего браузера. Пожалуйста, попробуйте проделать следующие действия:
После этого проверьте результаты поиска, сохраняется ли ситуация? Если да — проверьте, воспроизводится ли она в других браузерах. Сообщите мне, пожалуйста, в каких браузерах она повторилась.
Ответ
Мы проверили ситуацию с запретами в robots.txt вашего сайта.
Сейчас директивы в файле robots.txt, к сожалению, не обрабатываются. Это связано с тем, что в файле указано огромное число директив. Рекомендуем по возможности сократить размер файла до 500 строк.
Основные требования к файлу robots.txt можно прочесть в нашей Справке.
Отдельное спасибо парням за ссылку на справку, где указано ограничение в 500 КБ. Что вообще не тоже самое. В итоге у меня сайт уже месяц без robots.txt, а вы даете людям опасные советы...
Шо интересно, еще 4 недели назад, убирал через robots.txt 800 страниц, robots считывался...
Я рекомендую вам задать дополнительные уточняющие вопросы в том же тикете, так обратная связь с командой получится быстрее. Хочу добавить, что в целом не советую использовать файл robots.txt для постраничного ограничения отдельных страниц. Если необходимо запретить обход отдельных ссылок, для этого можно использовать мета-тег noindex. В robots.txt же в первую очередь стоит запрещать разделы и большие группы страниц по определенному признаку.