- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
И 150К страниц с 404 ошибкой, как мне кажется, не очень хорошо.
особенно если на них стоят внутренние ссылки
У меня вот только что уникальный+бестолковый контент для людей попал под панду.
Врядли за ПФ+скорость загрузки сайта можно попасть под Панду. За это сайт просто хуже ранжируется.
Я ж об этом и говорю, что уникальный, но бестолковый контент - не катируется. И при помощи поведенческих очень легко вычислить, что контент, бестолковый и не интересен людям :-)
Вот рекомендовал бы, если интересно, почитать, блог человека, которые специализируется только на панде. Про поведенческие он пишет в каждом посте.
http://www.hmtweb.com/marketing-blog/panda-4-temporary-recovery-case-study/
I’ve mentioned many times in Panda blog posts the importance of strong engagement. Google has several ways to measure user engagement, but one of the easiest ways is via dwell time. If someone clicks through a search result on Google, visits a page, and quickly clicks back to the search results, that’s a pretty clear signal that the user didn’t find what they wanted (or that they didn’t have a positive user experience). Low dwell time is a giant invitation to the mighty Panda.
Да это очень тяжело. Мы метатег прописали
<meta name='robots' content='noindex' />
Думаю этого достаточно должно быть.
И заметно, что часть этих страниц за месяц уже вылетела у Гугла из индекса.
И 150К страниц с 404 ошибкой, как мне кажется, не очень хорошо.
Вот это действительно странно :) Должно быть наоборот.
Если 90% вылетит из индекса и больше не войдет в индекс - напишите мне в личку (если потом вспомните).
Буду считать это экспериментом.
А вообще, даже если эти страницы уйдут из индекса таким образом, то робот все равно будет дальше к ним обращаться для выкачки (как показывает практика)
У Вас на них ссылки еще есть где-нибудь? Закрытие в метатегах и роботсе не дает гарантии что это страница не будет выкачиваться. Т.е. бот ее и дальше может выкачивать, только не размешать в индексе.
Вам нужно чтобы просто так 150 000 страниц постоянно сканировались?
404-ая даст боту знать, что ее больше нет.
Вот это действительно странно :) Должно быть наоборот.
У Вас на них ссылки еще есть где-нибудь? Закрытие в метатегах и роботсе не дает гарантии что это страница не будет выкачиваться. Т.е. бот ее и дальше может выкачивать, только не размешать в индексе.
Вам нужно чтобы просто так 150 000 страниц постоянно сканировались?
404-ая даст боту знать, что ее больше нет.
Это страница с оценками рейтинга материала.
На них ссылки с огромного количества страниц.
На них просто так невозможно ссылки снять. Надо огромный кусок сайта переделывать. Можно, конечно, на все ссылки на эти страницы тег nofollow ставить, но не борьба ли это с ветряными мельницами? Так можно совсем весь сайт закрыть.
Или все же стоит напрячься и поставить тег?
Это страница с оценками рейтинга материала.
На них ссылки с огромного количества страниц.
На них просто так невозможно ссылки снять. Надо огромный кусок сайта переделывать. Можно, конечно, на все ссылки на эти страницы тег nofollow ставить, но не борьба ли это с ветряными мельницами? Так можно совсем весь сайт закрыть.
Или все же стоит напрячься и поставить тег?
Скажу так, по опыту, хоть в роботс, хоть в nofollow, гугл бот все равно будет щарахаться по Вашему сайту и качасть страницы.
Для меня стало откровение, что на уже проиндексированные страницы, если поставить noindex, то они удаляются из индекса.
Так вот, как я полагаю, если не будет 404 и будут ссылки на этот мусор, на них все равно будет ходить бот, скачивать, но в индекс не будет засовывать.
Если ему будет 404 возвращаться, то он должен удалить из индекса. Хотя я видел случаи, когда весь сайт удалялялся, но в индексе сидело все.
Лично я бы 404 сделал со страницей "Упс, нет ничего".
А так, даже если удалятся страницы 150 000 штук, то бот будет ходить по ним - запрещай, не запрещай.
Кстати, Яндекс бот тоже самое делает.
Вы предположили, что получили фильтр из-за мусора (по факту мы имеем 150 000 дублей страниц).
Ваша задача, согласно этому предположению, убрать их из индекса и сделать так, чтобы потом по ним не шарахался робот. Кроме как 404 убить двух зайцев других способов в 5 утра мне в голову не приходят.
404-ая даст боту знать, что ее больше нет.
404 - временно нет. 410 - больше нет http://searchenginewatch.com/article/2340728/Matt-Cutts-on-How-Google-Handles-404-410-Status-Codes
404 - временно нет. 410 - больше нет http://searchenginewatch.com/article/2340728/Matt-Cutts-on-How-Google-Handles-404-410-Status-Codes
А, так судя по статье 410 и вперед :)
Могу потвердить падение трафика 23 числа на 15-20%. Сайт уже был под Пандой, но с конца августа были позитивные движения по трафику.
У меня падение 23-го на 90% 😡
Подозреваю что реклама, так как тексты пишу сам (правда в кулинарии уникальность спорный момент), фото все свои. Грешу на рекламу, неоднократно слышал что за тизеры от Гнезда бывает беда. Вот думаю, что теперь делать(((
403 Forbidden выкидывает страницы быстро и надолго
403 Forbidden выкидывает страницы быстро и надолго
отличная идея