Особенности робота WEBALTA? При использовании SSI в файлах .html ищет на сайте .shtml

kod_ssilki_ru
На сайте с 02.03.2005
Offline
176
915

Собственно, сабж. Есть сайт, в котором в страницах с расширением .html используется ssi - это прописано в .htaccess и нет проблем с навигацией по сайту ни у посетителей, ни у поисковых роботов

Но, посмотрев логи, к своему удивлению, обнаружил, что когда по сайту ходит некто с адреса 77.91.224.17 - то почему-то вместо файлов .html ищет файлы с аналогичным названием с расширением .shtml - и соответственно не находит файлы

Посмотрев whois - обнаружил, что этот адрес принадлежит WEBALTA

В принципе, можно, конечно, прописать, чтобы при запросе .shtml отдавался файл .html - но вообще, насколько понимаю, тк с навигацией посетителей и других рорботов проблем нет - то это глюк

Может, представители поисковой системы WEBALTA прокомментируют - или кто-то отпишется, сталкивался ли с таким... Понимаю, SSI сейчас не в моде, тем более, в файлах с расширением .html - но тем не менее...

Аккаунт закрыт 21.07.2009 ЛС (PM) отключены. Всем успехов! И Спасибо тем, кто был добр ко мне. Этот аккаунт ломали 18.05.2010 в 11.13 с ip 118.97.72.37 189.42.222.213 202.146.241.19 82.198.27.9
U
На сайте с 09.02.2003
Offline
91
#1

Скажите адрес? Нужно качнуть и проверить. Пофиксим сразу.

kod_ssilki_ru
На сайте с 02.03.2005
Offline
176
#2
unimaximus:
Скажите адрес? Нужно качнуть и проверить. Пофиксим сразу.

Огромное спасибо, что откликнулись, к сожалению, я сразу не заметил, но сейчас уже отправил Вам в личку адрес сайта и кусочек лога...

Добавлено. Посмотрел свежие логи - очень вероятно, что я ошибся, и дело не в роботе Вебальты, а, видимо, хостинг что-то не то отдает роботам - хотя странно это - но недавно сайт переехал на новый хостинг, в связи с чем я и стал смотреть логи, сейчас смотрю - и майкрософтовский поисковик пошел тем же путем в поисках .shtml (хотя у посетителей-нероботов таких ошибок не замечено)

В .htaccess было прописано AddHandler server-parsed .shtml .html - хотя .shtml расширение для файлов не использовалось - а только .html
- теперь от греха подальше оставил только AddHandler server-parsed .html - еще хостера спрошу на этот счет...

Так что подозреваю уже, что дело, вероятно, не в роботе поисковика - но все равно и тем более буду благодарен за пояснение... Если я ошибся - приношу свои извинения...

kod_ssilki_ru
На сайте с 02.03.2005
Offline
176
#3

Сейчас смотрю, Webalta уже правильно пошла по ссылкам (а еще несколько часов назад заходили и ошибочно искали .shtml еще и Рамблер и Гугль),

- так что вижу уже, что дело не в роботе Вебальты, а в .htaccess или настройках хостинга

(сразу изменения в .htaccess не подействовали, не знаю, может, из-за кеширования на сервере, а может, что-то саппорт хостинга поправил - я им тоже писал по этому поводу, ответа пока не получил, но может, чего поправили...)

Хотя на самом деле мне странно, почему так с .htaccess получилось, и почему посетители ходили по правильным адресам .html - а роботы тыкались в .shtml - но это уже тема не для этого раздела

Так что извиняюсь, как обещал - а представителю Вебальты респект за отклик, очень приятно, что представитель поисковика сразу откликнулся

Shtogrin
На сайте с 02.11.2006
Offline
95
#4

Может роботы уже что-то успели сохранить у себя и полезли повторно?

Такой реврайт не помешает,

RewriteEngine on

RewriteRule ^(.*)\.shtml$ $1.html [[R=301,L]

www.shtogrin.com (http://www.shtogrin.com/). Канцтовары (http://www.invit.com.ua/). 1С Бухгалтерия (http://account.kiev.ua/).

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий