- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Друзья, всем привет!
Поделитесь пожалуйста соображениями по такому вопросу.
Делался редизайн сайта и теперь в Search Console постоянно появляются ошибки сканирования страниц, которые не предусмотрены в новой структуре (я по урлам сужу). Плюс возможно клиент то добавит, то уберёт страницу. Я по началу ставил редиректы на существующие страницы, но уже в .htaccess около 700 редиректов. Я вот думаю, чтоб не раздувать этот файл, может поставить 410-й ответ сервера на эти страницы, тем более они все равно не в индексе?
Что посоветуете?
Заранее всем спасибо!
Нет ничего постоянного. 404-го всегда хватало.
Вот это для меня совсем непонятно:
Объясните ему, что не надо так делать. Также не надо менять адреса у существующих страниц. И кардинально их контент – тоже. Если функционально страница какое-то время может быть неактуальна, есть 503. Если клиент просто любит поиграться в песочнице, делаем для него соотв. раздел, ставим "Disallow: /sandbox/" и забываем.
Я по началу ставил редиректы на существующие страницы, но уже в .htaccess около 700 редиректов.
Это жесть. К изменению адресации нужно было крайне осторожно подходить, по возможности оставлять старые адреса и лишь на совсем невменяемые вешать редирект. Что-то наверняка можно полностью закрыть. И конечно лучше не использовать для этого .htaccess.
P.S. Извините за сумбур.
Поставьте постраничные редиректы, будет правильнее. Если есть возможность, используйте регулярки или создайте старые страницы и поклейте канониклом.
В принципе можно ставить 410.
Или можно просто закрыть в robots.txt эти страницы от поискового бота.