- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вопрос к гуру.
Я настроил редирект 301, прописав в файле .htaccess следующее:
Redirect 301 /старый.html http://www.mysite.ru/новый.html
В логах - код отклика 301 (как и надо), роботы также получают 301 (как и надо). Проблема только в том, что эти роботы почему-то посещают страницы с этим редиректом уже второй месяц подряд (раз десять, наверное). Хотя, по идее, код 301 означает, что страница перемещена постоянно, и второй раз они заходить не должны.
Это так и должно быть и со временем пройдет или надо что-то изменить в коде? Или еще какие-то проблемы?
На ряде страниц пробовал еще так:
Redirect Permanent /старый.html http://www.mysite.ru/новый.html
Результат то же.
А может на старую страницу где-то осталась ссылка?
Нет. Внутренних точно нет.
А внешние... Может, и сеть одна-две... Но не на все страницы. А у меня по всем удаленным страницам такая фигня.
Гугл стал тупить последние месяцев 6, не обращай внимания. Тут ты ничего не изменишь. Если только прописать их в robots.txt и запретить к индексации, но я не знаю не потеряется ли эффект 301 редиректа по поводу сохранения ПР и ссылочного ранжирования, в таком случае. Если будешь делать через robots.txt то лучше еще воспользоваться http://services.google.com:8882/urlconsole/controller?cmd=reload&lastcmd=login у меня по другому страницы не удаляет из индекса, даже запрещенные к индексации
Проблема в том, что с другими поисковиками у меня та же байда. Особенно inktomi озверел - ходит как заведенный, чем-то ему полюбились страницы с моим 301 редиректом. А вот яндекс, кажется, нормально все проглотил (тьфу-тьфу-тьфу)...
А запрет в robots.txt гарантирует удаление из идексов поисковиков (кроме гугля)?