- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день.
Наверняка мой вопрос многим покажется очень простым, но тем не менее.
Имеется сайт, страницы динамические - контент берется из торговой БД.
1. Действительно ли для улучшения результатов индексации необходимо "заставить робота" думать, что страницы статические? Если да, то каким образом это влияет на результаты? Что это дает?
2. Что необходимо сделать для полной имитации? Достаточно ли подмены url с помощью mod_rewrite, а также выдачи своего значения Last-Modified? Или необходимо что-то еще. Могут ли эти меры привести к бану?
Спасибо.
Нет, сейчас это уже не актуально. Роботы прекрасно справляются с динамическими страницами.
Да, так и делают.
Нет.
Псевдостатика сейчас служит более для того, чтобы на сайт было более удобно ставить естественные ссылки (согласитесь скопировать динамическую ссылку порой бывает не очень удобно) + для запоминаемости.
Кроме того некотрые считают, что присутсвия запроса транслитом в адресе страницы - +, но ИМХО это бред.
В принципе, статика всегда лучше смотрится как для пользователя, так и для ПС.
Если страницы динамические и используют Печенюшки, то желатьельно закрыть от робота страницы, где УРЛ содержит ID сессии.
mod_rewrite - вполне адекватное решение.
У меня бывали ситуации, когда динамический сайт преобразовали в статический. Поисковики статику сожрали, а динамику из индекса не убирали (страницы-то существуют по двум адресам). Получалось страниц в два раза больше чем их есть на самом деле. В результатах поиска они стояли рядом, но почему-то статическая в большинстве случаев была выше :)
Полгода прошло прежде чем динамические страницы сменились статикой и то до сих пор вылазят...
И ещё, ИМХО по личным наблюдениям: статику кушают быстрее чем динамику. Видимо она удобоваримее для ПС.
У меня бывали ситуации, когда динамический сайт преобразовали в статический. Поисковики статику сожрали, а динамику из индекса не убирали (страницы-то существуют по двум адресам). Получалось страниц в два раза больше чем их есть на самом деле. В результатах поиска они стояли рядом, но почему-то статическая в большинстве случаев была выше
Полгода прошло прежде чем динамические страницы сменились статикой и то до сих пор вылазят...
Ага, у меня схожая тема: страниц в 2 раза больше за счет того, что проиндексирован товар и ссылка на него в корзину (в каталоге товаров)
Есть еще такой момент. Видя, что сайт построен на статике (откуда ему знать, что псевдостатике), поисковик начинает запрашивать при индесациии достаточно большое кол-во страниц в секунду. В результате сайт может "лечь" (ограничение кол-ва запросов к БД в час или еще что-нибудь). Такое бывает с большими сайтами (несколько тысяч - десятков тысяч страниц) когда приходят сразу 2-3 "настойчивых" поисковика.