- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В общем ситуация следующая:
Сайт существует более 2-х лет, потом владелец сайта решил его обновить, из-за чего сайт был полностью переделан, соответственно изменилось количество страниц, адреса и структура url.
В robots.txt старые типы url были запрещены к индексации, практически все они возвращают теперь 404 ошибку.
Прошло 2,5 месяца, а количество страниц в индексе googlу не только не уменьшилось, а даже возросло, реально на обновленном сайте около 25 страниц, а в индексе, около 500 и их число иногда растет.
Я даже пытался удалять страницы вручную через вебмастер, но на место удаленных приходили новые :)
Кеш у этих страниц отсутствует, но в выдаче отображается текст, со старого сайта.
(Сам сайт был проверен ничего лишнего на FTP нет, в базе данных тоже только то что надо, старых записей нет).
Кто что может сказать по этому поводу, может кто-то сталкивался с таким?
В общем ситуация следующая:
Сайт существует более 2-х лет, потом владелец сайта решил его обновить, из-за чего сайт был полностью переделан, соответственно изменилось количество страниц, адреса и структура url.
В robots.txt старые типы url были запрещены к индексации, практически все они возвращают теперь 404 ошибку.
Прошло 2,5 месяца, а количество страниц в индексе googlу не только не уменьшилось, а даже возросло, реально на обновленном сайте около 25 страниц, а в индексе, около 500 и их число иногда растет.
Я даже пытался удалять страницы вручную через вебмастер, но на место удаленных приходили новые :)
Кеш у этих страниц отсутствует, но в выдаче отображается текст, со старого сайта.
(Сам сайт был проверен ничего лишнего на FTP нет, в базе данных тоже только то что надо, старых записей нет).
Кто что может сказать по этому поводу, может кто-то сталкивался с таким?
Стандартная работа оптимизатора.
Закажите у кого-нибудь сделать эту работу.
Удачи. 🍾
Я бы вместо 404 поставил 301 на морду старых страниц :)
Чай и вес бы передали, и повыкидывалось бы из индыкса.
А вообще, соглашусь с alexburzak - ручками, по 100 страниц в день килайте, за неделю и пройдет :)
Трудовые будни...