- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Не секрет, что поисковики находят кучу страниц, часть из которых исключают. Среди них выделяются:
а) Дубли
б) Редиректы
в) Неканонические страницы
г) Недостаточно качественные
д) Ошибка HTTP
Если по пунктам (а) и (г), бесспорно, нужно работать и избавляться от таких исключений, то стоит ли биться за отсутствие пунктов (б), (в) и (д)?
Не знаю как у всех, могу судить по своим сайтам:
б) Редиректы со страниц доЧПУшной эпохи на нынешние (КАК он это помнит?) и пр.
в) Самые разнообразные сортировки, варианты каталога с доп параметрами и пр.
д) Как правило ранее существовавшие страницы и хрен знает откуда взятые не существующие страницы сайта, которые поисковики откуда то взяли и сервер корректно отдаёт 404-ю ошибку.
То же самое. Полно страниц типа б, в и д в вебмастере яндекса. Как бороться не знаю - тупо забил
То же самое. Полно страниц типа б, в и д в вебмастере яндекса. Как бороться не знаю - тупо забил
в чем проблема то? запрещай их индексацию и delurlом чикай
у меня таких много - проще не обращать внимания, что-то ценное он сам найдет и не исключит. А это еще лишние внутренние ссылки для перелинковки. Смысл их исключать, если робот их плохими не считает?
стоит ли биться за отсутствие пунктов (б), (в) и (д)?
Если бы вы посмотрели на ситуацию глазами писателя бота, то... замети ли бы, что количество HTTP-обращений лучше сократить ... чтобы лишних не было (пока делаются лишние, не индексится то, что могло бы).
богоносец,
посмотрите на него - как сайтоделатель. У меня из перечисленного на блоге в подписи нет в принципе вообще бездельных страниц.
1. Страницы из календаря по датам со списком постов - бесполезны только когда пост один, но все равно это полноценный анонс поста
2. Страницы списка страниц не бесполезны. Потому что есть НЧ, которые могут образоваться именно на таком списке в разделе. Например, раздел "Уголовное право". Там вторая страничка, учитывая что у нас в области второй год судят губернатора бывшего - может попасть под именно такие НЧ запросы и быть довольно высоко, если кто-то будет гуглить что-то вроде "уголовное дело, рассмотрение дела хорошавина в судах". По подобным запросам отдельно можно не вылезти, а в целом вылезти можно.
Есть самый минимум страниц - кторые бесполезны, например пустая страница поиска, но WP выводит вообще все посты. В общем хочется смотреть глазами человека, боту то все равно. Он не для себя ищет, а для всех сразу. За это я его не уважаю. Бота, он не читает что ищет. Согласен по "а" и "б" - они прямо даром людям не нужны и не нужны роботу. А категория "д" - не нужна поисковику только, все ошибки стоит снабдить просто автоматически антииндексацией..... Но боту тоже легко их исключить.
Если бы речь была о магазинах с тысячами страниц, то дубли (и т.п. лишние доступные боту страницы) === замедление индексации. Вот тупо не надо создавать лишней нагрузки ботам / сети.
У ботов есть ограничения на обращение к сайту, создателю так захотелось, он думает о дефиците ресурсов (фактически о конкурентоспособности / себестоимости индексации) и ограничении памяти на закрома, а не о том, что подумают вебмастеры (ими займутся пиарщики из ТП).
всё что ненужно закрыть или удалить, есть такое понятие как краулерный кредит (кредит бота), у каждого сайта он свой