- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Не секрет, что поисковики находят кучу страниц, часть из которых исключают. Среди них выделяются:
а) Дубли
б) Редиректы
в) Неканонические страницы
г) Недостаточно качественные
д) Ошибка HTTP
Если по пунктам (а) и (г), бесспорно, нужно работать и избавляться от таких исключений, то стоит ли биться за отсутствие пунктов (б), (в) и (д)?
Не знаю как у всех, могу судить по своим сайтам:
б) Редиректы со страниц доЧПУшной эпохи на нынешние (КАК он это помнит?) и пр.
в) Самые разнообразные сортировки, варианты каталога с доп параметрами и пр.
д) Как правило ранее существовавшие страницы и хрен знает откуда взятые не существующие страницы сайта, которые поисковики откуда то взяли и сервер корректно отдаёт 404-ю ошибку.
То же самое. Полно страниц типа б, в и д в вебмастере яндекса. Как бороться не знаю - тупо забил
То же самое. Полно страниц типа б, в и д в вебмастере яндекса. Как бороться не знаю - тупо забил
в чем проблема то? запрещай их индексацию и delurlом чикай
у меня таких много - проще не обращать внимания, что-то ценное он сам найдет и не исключит. А это еще лишние внутренние ссылки для перелинковки. Смысл их исключать, если робот их плохими не считает?
стоит ли биться за отсутствие пунктов (б), (в) и (д)?
Если бы вы посмотрели на ситуацию глазами писателя бота, то... замети ли бы, что количество HTTP-обращений лучше сократить ... чтобы лишних не было (пока делаются лишние, не индексится то, что могло бы).
богоносец,
посмотрите на него - как сайтоделатель. У меня из перечисленного на блоге в подписи нет в принципе вообще бездельных страниц.
1. Страницы из календаря по датам со списком постов - бесполезны только когда пост один, но все равно это полноценный анонс поста
2. Страницы списка страниц не бесполезны. Потому что есть НЧ, которые могут образоваться именно на таком списке в разделе. Например, раздел "Уголовное право". Там вторая страничка, учитывая что у нас в области второй год судят губернатора бывшего - может попасть под именно такие НЧ запросы и быть довольно высоко, если кто-то будет гуглить что-то вроде "уголовное дело, рассмотрение дела хорошавина в судах". По подобным запросам отдельно можно не вылезти, а в целом вылезти можно.
Есть самый минимум страниц - кторые бесполезны, например пустая страница поиска, но WP выводит вообще все посты. В общем хочется смотреть глазами человека, боту то все равно. Он не для себя ищет, а для всех сразу. За это я его не уважаю. Бота, он не читает что ищет. Согласен по "а" и "б" - они прямо даром людям не нужны и не нужны роботу. А категория "д" - не нужна поисковику только, все ошибки стоит снабдить просто автоматически антииндексацией..... Но боту тоже легко их исключить.
Если бы речь была о магазинах с тысячами страниц, то дубли (и т.п. лишние доступные боту страницы) === замедление индексации. Вот тупо не надо создавать лишней нагрузки ботам / сети.
У ботов есть ограничения на обращение к сайту, создателю так захотелось, он думает о дефиците ресурсов (фактически о конкурентоспособности / себестоимости индексации) и ограничении памяти на закрома, а не о том, что подумают вебмастеры (ими займутся пиарщики из ТП).
всё что ненужно закрыть или удалить, есть такое понятие как краулерный кредит (кредит бота), у каждого сайта он свой