- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите, пожалуйста, знатоки, как бороться с такой проблемой и проблема ли это:
В октябре прошлого года перепилил сайт на новый движок. Страниц на сайте сотни тысяч. Вместо обычных номерных страниц, типа page12345.htm сделал культуртное ЧПУ и 301-й редирект со старого адреса на новый.
Прошло много более полугода. Всё это время Яндекс активно сканит сайт, по >100К страниц в день разными ботами. Сейчас смотрю панель веб-мастера: в индексе >400К страниц, но процентов 10-20 из них (визуально) это старые не ЧПУ адреса!
Не понятно, почему за это время Яндекс не заменил одно другим. То что при таком темпе сканирования ни разу не проходил их очень сомнительно. Почему тогда не заменил адреса? Проблему вижу как минимум в том, что внутренние линки стоят на новые адреса, следовательно Яндекс их вес и анкоры не учитывает.
Как бороться? Запретить все старые урлы в robots.txt - где гарантия, что вылетят старые, и в индекс попадут новые?