- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Собственно проблема простая. Распрямляю довольно старый проект.
В данный момент там на 10к страниц контента.
Т.к. до меня люди делали "что попало" гугл "знает" о почти миллионе страниц.
Более того, он похоже имеет в списке на индексирование по внутренним ссылкам
может миллион, а может и десять страниц. Еще не посещенных.
Проблема простая: он пытается посещать страницы, которых нету.
И, вероятно никогда и не было. То-ли скрипт какой-то криво ЧПУ генерил,
то-ли что-то еще. В вебмастере не указано откуда он вообще этих
урлов набирается, они просто сотнями каждый день вываливают.
Как-бы заставить гугл все эти "накопленные знания" сбросить ?
Сайтмап залил, но на 1 страницу из сайтмапа он пытается 10-20 "кривых" посетить,
так он будет с полгода "колупаться".
Что делать-то ? Только терпеть ?
если дубли то canonical, если непонятно что, то отдавать 404
гугл даже по 404 по полгода страницы выкидывает. тут только ждать, если всё настроено
если дубли то canonical, если непонятно что, то отдавать 404
Да 404 это, яж говорю, раз 5-10 что-то ставили и он теперь ищет одни и те-же страницы
про туче адресов. Набрал внутренних ссылок видать. Причем самих страниц нету давно.
Причем непонятно какие страницы из кеша содержат эти ссылки, и там-ли они, или где-то
отдельно хранятся.
Хотелось бы просто унять его на уровне: ничего про сайт не знаю, но чую это невозможно.
Или написать в саппорт ?
Замените 404, 301 редиректом с старых страниц на новые.
Замените 404, 301 редиректом с старых страниц на новые.
Часть уже так и сделано. Стало конечно полегче, процентов на 30-40.
Но я (и никто другой) просто не знают какие старые страницы и ссылки были в прошлом.
Нет ни бэкапов, нифига в общем.
Куча всякой абракадабры вылезает.
И как-то ежедневно по 50-100 редиректов (причем непонятно куда) делать не очень хочется.
Скрипт какой-то, как только идёт обращение с гугла на страницу которой нету в базе, сразу она редиректится к примеру на морду сайта. Постепенно, старые страницы из поиска гугла выпадут.
Или сразу, со всех всех страниц которых нету в базе, включая несуществующие с всякими ошибками в адресе настроить редирект на какую-то страницу.
Если есть маска, то добавить в robots и продублировать их в WMT. За день выкинет.
Но видимо не все так просто.
Нету маски, полный хаос :(
Редирект на главную... как-то мне стрёмно. Может лучше форбидден выдавать ?
Обычно удаляю страницы из поиска и кэша через вебмастер гугла, вылетают влёт.
Правда для вас вручную это ппц)
Редирект на главную... как-то мне стрёмно.
На 404 страницу редирект тогда поставьте. И чтоб отклик у неё был 404.
Вообще проблема надумана. Если есть реальный трафик и ссылки на какие-то страницы то смотрите их в сохранёнке и перенаправляете потом на новый вариант. Если трафа/ссылок нету и страницы непонятные, то страницу с 404 ошибкой отдаёте.