- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Возникла проблема - при заходе Google бота выдается код возврата 403, у остальных ботов все нормально. Количество проиндексированных Google страниц постоянно падает. Hosting - sweb.
robots.txt:
User-Agent: *
Disallow: /cgi-bin/
error_log:
www.site.ru [Tue May 9 09:07:31 2006] [error] [client 66.249.72.132] (13)Permission denied: access to /*.htm failed because search permissions are missing on a component of the path
Уже не знаю на что грешить - почему отдается код 403? Кто виноват hosting или у меня что? Помогите плиз!
Похоже с .htaccess перемудрили.
Тут же все понятно написано ;) В одной из директорий по пути к странице нет "search" флага ('x') для чтения апачем.
А вот почему только для гугла... Может быть все-таки для всех?
> absolut Похоже с .htaccess перемудрили
у меня на сайте вообще нет .htaccess , или может быть какой-нибудь .htaccess на hostinge недоступный мне?
>Eugen
> флага ('x') для чтения >апачем
1.прошу напишите конкретнее где этот флаг должен стоять - я могу это изменить или только просить хостера?
2. вот именно что это происходит только для гугла
Можно ли как-то определить кто виноват - хостер или я?
Спасибо всем за помощь. Прошу помочь советом а то я в этом вопросе не силен.
Почему именно 'x'?.. Может 'r'?
Может быть дело в том что файла '/*.htm' не существует, но ссылка на него где-то есть...
Почему именно 'x'?.. Может 'r'?
Потому что "search permissions" для директории - это именно флаг X.
>deadcat
>Может быть дело в том что файла '/*.htm' не >существует, но ссылка на него где-то есть...
файлы существуют и для других ботов выдается 200
и индексируются они нормально, а для бота google выдается 403 для этих же файлов.
Если только для гугла и вы ничего не делали, то виноват хостер. Хотя у меня есть сомнения по поводу описанного вами.
Может быть дело в том что файла '/*.htm' не существует, но ссылка на него где-то есть...
файлы существуют...
Файлы может и существуют, но вот файл с именем '/*.htm' наверняка нет.
у что "search permissions" для директории - это именно флаг X.
Вы о чем, простите?!!
Вы о чем, простите?!!
Все очень просто. То сообщение, которое пишется в логи, прямо так и говорит: у какой-то из директорий на пути к файлу, который пытается прочитать апач (в данном случае htm какой-то), нет права на search (для апача), бит, который это право устанавливает называется search x.
Обычно, права директории выглядят так rwxr-xr-x
Почему только для гуглбота выдается, я не знаю. Это уже целенаправленная фильтрация. Если это действительно так (в чем я сомневаюсь), то обратитесь к хостеру.
Все очень просто. То сообщение, которое пишется в логи, прямо так и говорит: у какой-то из директорий на пути к файлу, который пытается прочитать апач (в данном случае htm какой-то), нет права на search (для апача), бит, который это право устанавливает называется search x.
Обычно, права директории выглядят так rwxr-xr-x
О Боже... Вы сами это придумали?..
Вам не кажется что буква ‘x’ в записи вида ‘rwxr-xr-x’ означает ‘execute’?.. Кроме этого, не кажется ли Вам, что для апача не существует принципиальных различий между внешним клиентом юзером и внешним индексирующим роботом?..
А у топикстартера проблема в том, что он почему-то не может принимать действительность буквально.