- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Собственно, сабж. Есть сайт, в котором в страницах с расширением .html используется ssi - это прописано в .htaccess и нет проблем с навигацией по сайту ни у посетителей, ни у поисковых роботов
Но, посмотрев логи, к своему удивлению, обнаружил, что когда по сайту ходит некто с адреса 77.91.224.17 - то почему-то вместо файлов .html ищет файлы с аналогичным названием с расширением .shtml - и соответственно не находит файлы
Посмотрев whois - обнаружил, что этот адрес принадлежит WEBALTA
В принципе, можно, конечно, прописать, чтобы при запросе .shtml отдавался файл .html - но вообще, насколько понимаю, тк с навигацией посетителей и других рорботов проблем нет - то это глюк
Может, представители поисковой системы WEBALTA прокомментируют - или кто-то отпишется, сталкивался ли с таким... Понимаю, SSI сейчас не в моде, тем более, в файлах с расширением .html - но тем не менее...
Скажите адрес? Нужно качнуть и проверить. Пофиксим сразу.
Скажите адрес? Нужно качнуть и проверить. Пофиксим сразу.
Огромное спасибо, что откликнулись, к сожалению, я сразу не заметил, но сейчас уже отправил Вам в личку адрес сайта и кусочек лога...
Добавлено. Посмотрел свежие логи - очень вероятно, что я ошибся, и дело не в роботе Вебальты, а, видимо, хостинг что-то не то отдает роботам - хотя странно это - но недавно сайт переехал на новый хостинг, в связи с чем я и стал смотреть логи, сейчас смотрю - и майкрософтовский поисковик пошел тем же путем в поисках .shtml (хотя у посетителей-нероботов таких ошибок не замечено)
В .htaccess было прописано AddHandler server-parsed .shtml .html - хотя .shtml расширение для файлов не использовалось - а только .html
- теперь от греха подальше оставил только AddHandler server-parsed .html - еще хостера спрошу на этот счет...
Так что подозреваю уже, что дело, вероятно, не в роботе поисковика - но все равно и тем более буду благодарен за пояснение... Если я ошибся - приношу свои извинения...
Сейчас смотрю, Webalta уже правильно пошла по ссылкам (а еще несколько часов назад заходили и ошибочно искали .shtml еще и Рамблер и Гугль),
- так что вижу уже, что дело не в роботе Вебальты, а в .htaccess или настройках хостинга
(сразу изменения в .htaccess не подействовали, не знаю, может, из-за кеширования на сервере, а может, что-то саппорт хостинга поправил - я им тоже писал по этому поводу, ответа пока не получил, но может, чего поправили...)
Хотя на самом деле мне странно, почему так с .htaccess получилось, и почему посетители ходили по правильным адресам .html - а роботы тыкались в .shtml - но это уже тема не для этого раздела
Так что извиняюсь, как обещал - а представителю Вебальты респект за отклик, очень приятно, что представитель поисковика сразу откликнулся
Может роботы уже что-то успели сохранить у себя и полезли повторно?
Такой реврайт не помешает,
RewriteEngine on
RewriteRule ^(.*)\.shtml$ $1.html [[R=301,L]