- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую!
Поменял ссылки на сайте, привел их к ЧПУ виду. На тот момент практически все страницы были в индексе. После того, как сделал ЧПУ ссылки, старые запретил к индексации в robots. И вот уже месяц Гугл никак не выбросит из индексации старые страницы. Сейчас они все выдают 404 ошибку. Бот на сайт приходит, новые страницы индексирует.
Как долго можно прождать, пока выкинет из индекса?
Я уже подумываю, может в robots снять запрет, чтобы быстрее понял, что страницы не существуют и так быстрее удалит из индекса?
Подскажите, продолжать ждать или что-то делать?
кто вам сказал такое делать вообще? про 301 не слышали??
Много нехорошего про 301 редирект на главную пишут.
при чем тут на главную???? надо старые на новые редиректом делать
Их в районе 500 штук.
Так Гугл их сам удалит удалит когда-нибудь?
Да хоть миллион человек тебе говорит старые на новые ))) и все тут)) со всех старых редирект на новые
301 Редирект динамических страниц
При модернизации динамического сайта и создании ЧПУ-адресов часто возникает необходимость перенаправить старые страницы с параметрами ID на новые с ЧПУ. Например, чтобы переадресовать страницу вида http://site.com.ua/page.php?id=13 на новую страницу http://site.com.ua/newname.html, используется следующая конструкция:
RewriteCond %{QUERY_STRING} ^id=13$
RewriteRule ^/page.php$ http://site.com.ua/newname.html [L,R=301]
Похожая ситуация, нужно удалить из индекса страницы профилей. Прописал в robots.txt сайт уже просканировал, а те страницы оставил(. Сейчас попробую удалить их из Гугл Вебмастер.
старые запретил к индексации в robots
Кто Вам сказал, что роботс запрешает индексацию? Он запрещает сканирование, а индексацию у гугла запрещает тег noindex.
Так какие должны быть правильные действия, чтобы быть уверенным, что Гугл таки выведет эти адреса из индекса? Напомню, сейчас все эти адреса выдают 404 ошибку и закрыты от скана в роботе.
Go2Berlin, самое лучшее действие Вам подсказал xVOVAx у Вас всего 500 страниц :) Самое наверно простое открыть в роботс бот увидит 404 удалит из индекса и после переиндексации новых пойдет выдача.
Кто Вам сказал, что роботс запрешает индексацию? Он запрещает сканирование, а индексацию у гугла запрещает тег noindex.
И даже тег noindex не всегда спасает , гугл может проигнорировать его и загнать в индекс то что не нужно , редко конечно бывает но бывает....