- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, товарисчи!
Яндексом было проиндексировано около 500 страниц. По факту на сайте 700 страниц.
Но мне нужно перенести сайт на другой домен и я решил закрыть от индексации весь сайт.
Дело в том, что после закрытия сайта роботсом гугл страницы не стал выплёвывать. Количество страниц в гугле не изменилось, только под сниппетом, на каждой странице, он написал следующее "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее..." ,.....
...но страницы остались в индексе...
Что произошло в яндексе?
Всего через 1 ап (в этот ап) в нём осталась всего 1 страница.
Вот я и хочу понять. Яндекс всегда так шустро реагирует на роботс? Или же сайт мог словить какой-то фильтр? Или всё-таки закрытие сайта в роботс так быстро повлияло на выпадение?
В индексе сейчас всего 1 страница (главная). Описание (дескрипшн) отсутствует.
Просто раньше никогда полностью не закрывал сайт от индексации, поэтому хотелось бы понять как ведёт себя яндекс и гугл в случаях полного закрытия сайта в роботс.
Всегда ли он так быстро реагирует на роботс и выплёвывает прям ВСЕ страницы? Или же некоторые может оставить?
Прошло всего несколько дней после закрытия сайта от индексации.
p.s. движок wp.
Яндекс сделал то, что вы ему сказали.
Всего через 1 ап (в этот ап) в нём осталась всего 1 страница.
вовремя сработал робот
p.s Чего вы ожидали после прописывания disallow?
Яндекс сделал то, что вы ему сказали.
вовремя сработал робот
p.s Чего вы ожидали после прописывания disallow?
В принципе это и ожидал, но не за столь короткий срок. Многие вон пишут что сайты, запрещённые к индексации в роботс, месяцами не уходят из индекса. А у меня бац и одна страница спустя несколько дней.
Ещё будут мнения?
И как бы узнать почему в гугле страницы остались, но с пометкой "Описание веб-страницы недоступно из-за ограничений в файле robots.txt. Подробнее..." ??? Или это такая особенность движка WP? Или же гугл любой сайт так покажет?