- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Прочитал книгу Ашманова «Продвижения сайта в поисковых системах». В ней была глава, в которой рассказывалось о продвижении крупного новостного проекта. И в одном из подзаголовков, говорилось о том, что можно подавать роботам только новые страницы. То есть бот заходит и индексирует только новые страницы и страницы, у которых изменилась дата. А то смотришь, роботы сидят на сайте 24 часа в сутки и постоянно находятся там, где не нужно. Теоретически я понял, как это сделать. Но хотелось бы услышать от людей, которые делали так на своём сайте, по пунктам, как правильно это реализовать.
Обычно я реализовываю это с помощью внутренних ссылок, которые попадают в карту сайта, в нужные подразделы сайта и доступны роботу для индексации в 2-3 клика максимум. При такой реализации новые страницы попадают в индекс после очередного обновления поисковой выдачи (апа). Если часть страниц участвует в продвижении, то покупаю несколько трастовых ссылок на нужную страницу, индексируется отлично.
Создать страничку "новые страницы" со ссылками на новые страницы и дать нее максимальное кол-во внутряков(можно сквозные снизу каждой страницы сайта на неё проставить)
ElectroD, В этой книге как раз всё и написано... и про 304 (Not Modified) и про <meta name="robots" content="noindex,nofollow">...
А вот, что про это говорит Яндекс
Чтобы ускорить появление страниц сайта в поиске, воспользуйтесь нашими рекомендациями — во-первых, исключите из индексации ненужную информацию, во-вторых, сообщайте роботу о новых страницах. Для этого:
запретите в robots.txt индексацию страниц, неинтересных пользователям. Например, формы ответа на форуме, статистику посещений, сайты-зеркала, документы на нераспространенных в рунете языках;
создайте карту сайта, то есть страницу или несколько страниц, которые содержат ссылки на все документы сайта;
настройте сервер на выдачу корректных заголовков ответов (например, если страница не существует, выдавать ошибку 404, а если поступил запрос «If-Modified-Since», то выдавать код 304, если страница с указанной в запросе даты не изменялась).
P.S. Теория.