- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вопросы:
1. Как различные поисковики относятся к динамическим страницам, сверстанным с SSI? И в связи с этим:
- Стоит ли *.shtml "прятать" в *.html ?
- Не игнорируются ли конструкции вида *.shtml?<параметры> ?
2. Как поисковики относятся к cgi-bin "зоне" и стоит ли ее тоже "прятать"?
По своим наблюдениям я делаю вывод, что Яндекс, например, индексирует все подряд. Рамблер вообще не желает видеть cgi-bin, при этом *.shtml индексирует хорошо, а к *.shtml?<параметры> относится, мягко говоря, настороженно. Хотелось ьы узнать, прав ли я, и как поступают другие поисковики (Google, Aport, Lycos и т.п.)
Можешь у меня посмотреть:
http://www.raskrutka.net/dynamic.html
Там целая таблица по индексации поисковиками динамического контента.
Master99
Ай-ай-ай![]()
Kiwi
Ну, ты, вроде бы, давно на форуме, а эти вопросы уже обсуждались, и не раз.
Никак не относятся. Индексируют абсолютно спокойно. Все директивы SSI выполняются на сервере до передачи страницы броузеру или роботу.
Не имеет значения.
Вот это уже зависит. Такую конструкцию воспримут Яндекс и Google. Остальные динамику не индексируют.
А точно также. Если это чистый html на выдаче, то все нормально. А если встречаются параметры - читай выше.
Gray
То что делается на сервере, поисковику не видно - это понятно. Просто есть сайт, который весь на *.shtml. Наступило время его реструктуризации и редизайна...
Я принял такое решение: прятать shtml в html (как я понял из ответа - это делать не обязательно) и работать с минимумом параметров. То есть, например, corpnews.shtml?a=b спрятать в corpnews_b.shtml (при этом появится куча новых файлов + соответственно надо будет править систему управления контентом), вот я и хочу выяснить: стоит ли игра свеч...
Всем
Спасибо за ответы!![]()
[This message has been edited by Kiwi (edited 02-02-2002).]
Рекомендую сделать иначе - если на сервере установлен mod_rewrite, использовать его для динамического переопределения запросов. Т.е. физически будет страница corpnews.shtml?a=b, а запросы будут направляться на страницу, например, corpnews/shtml/a/b.
Проблемы с SSI есть. Если не предпринимать никаких мер, SSI-страницы не выдают правильную дату. А Яндекс и пр. в этом случае реже делают обход. Я неправ?
Если не подумать об этом на стадии написания скрипта, то страницы просто не будут выдавать дату - ни правильную, ни какую-либо вообще.
Правда, несмотря на именно такую особенность движка на этом сайте, Яндекс регулярно ходит и индексирует сайт. Так что не могу сказать, чтобы это мешало сайту.
Яндекс за 1 проход по сайту скачивает определенное количество страниц. Если про некую страницу яндексу известна ее дата (сервер в прошлый раз вернул Last-Modified), то яндекс запрашивает ее с заголовком If-Modified-Since, на каковой заголовок сервер имеет полное право вернуть 304 код.
Таким образом робот будет успевать за один заход скачивать большее число документов, реально изменившихся или еще не проиндексированных.
У-ф.![]()
Это какое-то определенное число? Или, манипулируя заголовком, можно заставить робота скачать весь сайт заново?