- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если не в тему - прошу медераторов объединить с разделом по яндексу.
Заметил, что в логах от яндекс бота есть посещения по страницам которые были удалены очень давно,
веб-сервер отдает 404.
*Сразу скажу что не хочу ставить код 410 так как его последтвия (влияние на ранжирование и рейтинг сайта) для меня непонятны, плюс по некоторым другим, про которые ниже.
В вбмастере, в разделе внешних ссылок вижу что многие несуществующие сейчас страницы уже помечены как 404, но многие нет,
при этом яндекс робот продолжает ходить по всем (и тем и тем) и получать 404.
Скажите, сколько яндекс помнит удаленные страницы?
Скажите, как надежно заставить забыть яндекс о страницах?
*(именно забыть, а не внести страницы в другой список - список исключений - для перманентно недоступных страниц (что он делает имхо если отдовать код 410)).
P.S. кто наблюдал исчезновение удаленной страницы которая была в вебмастере в списке "исключенные страницы" после ее внесения в Disallow в robots.txt ? по документации яндекса страница из раздела "исключенные страницы" должна пропасть если внести ее в запрещения, по факту мой тест пока показывает что яндекс не исключил удаленную страницу из этого списка.
годами может, не парься
Disallow поможет, чтобы этого не происходило?
Например такое бывает когда есть ссылки на страницы - решается редиректом
Недавно нужно было закрыть сайт для Яндекса оставив одну (внутреннюю) страницу. Обычная визитка на десяток страниц, но раньше на домене было много страниц, которые за полгода так и не выпали из индекса отдавая 404-ю. Закрыл всё это дело в robots оставив одну страничку, не прошло и недели, вылетели сразу все - и доступные и нет.
Так что пробуйте через robots.txt
..на домене было много страниц, которые за полгода так и не выпали из индекса отдавая 404-ю..
Спасибо за опыт.
Подскажите, те что отдовали 404 у вас не выпадали как?
они были в индексе при запросе имени сайта в строке поиска (ну или названия страницы там итп)?
или просто числились в разделе:
яндекс вебмастер -> Индексирование -> Страницы в поиске -> Все страницы ?
После тог как вы поставили robots и страницы выпали в:
яндекс вебмастер -> Индексирование -> Страницы в поиске -> Исключенные страницы
либо в разделе:
яндекс вебмастер -> Индексирование -> Страницы в поиске -> Последние изменения ?
появились адреса всех выпавших страниц ? если да - то с каким статусом?
можете посмотреть, в истории в вебмастере должно остаться.
Вообще в вебмастере где то в другом месте было написано, что страницы были запрещены
или выпали или исключены из индекса из-за robots? к примеру в разделе:
яндекс вебмастер -> Ссылки -> Внутренние ссылки -> ...где то в этом разделе.. ?
Еще раз спасибо.
P.S. также прошу поделиться опытом если у кого еще были подобные ситуации по теме.
Заметил, что в логах от яндекс бота есть посещения по страницам которые были удалены очень давно,
веб-сервер отдает 404.
Потому что с помощью 404 сеошники на серп не могут повлиять, так что можно не спешить реагировать.
Сделай 301 - авось какое-то время страница будет внутренний вес передавать.
Либо ничего не делай - не стоит париться насчет экономии ресурсов яшиных ботов.
Подскажите, те что отдовали 404 у вас не выпадали как?
они были в индексе при запросе имени сайта в строке поиска (ну или названия страницы там итп)?
url:site.ru* | url:www.site.ru*
После тог как вы поставили robots и страницы выпали в:
яндекс вебмастер -> Индексирование -> Страницы в поиске -> Исключенные страницы
либо в разделе:
яндекс вебмастер -> Индексирование -> Страницы в поиске -> Последние изменения ?
появились адреса всех выпавших страниц ? если да - то с каким статусом?
можете посмотреть, в истории в вебмастере должно остаться.
В "Последние изменения" со статусом "Запрет в robots.txt (страница)", в Исключённых пусто.
Спасибо за опыт и за подсказки.
Также уточню - что мне как раз хочется сделать так чтобы яднекс забыл про все страницы на сайте, но судя по тому что я вижу - яндекс просто перекладывает из одного списка страницы в другой, запретил в robots - все moved в список запрещенных, убрал из robots запрет - все moved в писок удаленных (404) и скорее всего будет продолжать пробовать их посещать.
Сделал 410 - он перенесет все в список "типа забытых", и все равно будет их посещать, имхо.
Потом яндекс думаю считает рейтинги по всем имеющимся спискам.
Имхо при этом сами страницы из базы не удаляются и продолжают "играть роль" в одном из списокв. Какую и как знают только сотрдуники яндекса.
Тогда я вообще не понимаю как люди выходят из под санкций, если даже удаление всех страниц особо не на что не повлияет. Возможно при написании платонам они нажимают кнопку "подчистить совсем старое и не актуальное г*", не удивлюсь если при этом они выбирают интервал за который это сделать, и тогда санкционные сайты оживают.
На текущий момент наиболее перспективным я вижу продолжать отдовать код 404. Так как список по этому коду, скорее всего самый быстро забываемый, так как это более распространенный код и данных в этом списке больше всего - и они чаще очищаются.
Мнения? Идеи?