- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В середине декабре 2018 взломали сайт на вордпресс. Пока праздники прошли, пока нашли специалистов(не каждый смог справиться), пока удалили - уже середина февраля.
Вирус создавал тысячи(15к) страниц с редиректом. После удаления(а в индексе всё ещё было тысяч 13 страниц от вируса- поймали фильтр. Все запросы из топов улетели на 50+. Думаю на панду(наших страниц- 50-60+ тысячи однотипных говностраниц). Ждал, пока гугл их выкинет и вернёт позиции. в конце апреля понял, что ситуация не меняется и гугл на те страницы просто не заходит. Создал Sitemap с говностраницами и отметил, что они недавно обновились + вручную удалял эти гс попадающие в выдачу.
За пару дней из выдачи удалил все гс, но каждый день вылезали новые. До конца мая каждый день удалял вылезающие. Новые Sitemap не проверяются с 5 мая(а я их постоянно обновлял, так как в СК можно было только 1000 страниц вытаскивать).
Теперь проблема в том, что на протяжении полутора месяца не меняется количество страниц в выдаче. Те что удаляю в ручную-через неделю опять возвращаются. Гугл был на них в последний раз в декабре 2018 и не знает, что они все 404....
Как ускорить переиндексацию?
И ещё вопрос: сайт о курсах первой помощи. Есть пара десятков статей об оказании первой помощи. Может ли это оказаться медицинским фильтром? Или всё-таки панда( 100 страниц в индексе ~50 страниц наши, 40 страниц говна бессмысленного и 10 мусорных, которые сквозь robots.txt пролезли)?
404 годами может болтаться в гугле, так как он не знает, может вы ее случайно удалили
надо 410 чтоб отдавал, за 2 месяца уйдут
donc, да лучше всешо настроить на такие страницы 410 код.
плагин есть. 410 for wordpress
Спасибо большое за информацию о 410.
Сделал.
Можно ли как то ускорить проход гугла по этим страницам?
И знатокам медицинского фильтра: санкции накладываются на весь сайт или только на страницы с мед. статьями?
Спасибо большое за информацию о 410.
Сделал.
Можно ли как то ускорить проход гугла по этим страницам?
И знатокам медицинского фильтра: санкции накладываются на весь сайт или только на страницы с мед. статьями?
В WMT можно попробовать переобходомботов наслать.
Да, и в robots.txt тоже нужно указать эти страницы.
В WMT можно попробовать переобходомботов наслать.
Да, и в robots.txt тоже нужно указать эти страницы.
В WMT почти не осталось работающих функций. Всё перенесли в SearchConsole(ну или подскажите, куда конкретно лезть).
В роботс, как уже писал выше, добавлял(но пока были 404), теперь гугл даже не принимает новые/свежие. Дата последней обработки 5 мая....
И ещё, в выдаче присутствуют урлы, которых нет в СК(но в выдаче они давно, удалял их с месяц назад....)
Прошло 4 недели, как поставил 410. Ситуация не изменилась....
Может запретить гуглу индексацию всех страниц, кроме главной?
А как санкции снимут- разрешить.
Теперь проблема в том, что на протяжении полутора месяца не меняется количество страниц в выдаче.
Верните ответ 200, а в html код включите метатег noindex. Один обход бота и страницы должны уйти из индекса.