robots.txt для гугл...

12
Y
На сайте с 25.10.2007
Offline
198
1557

Добрый день всем

Есть несколько сайтов на джумла, на каждом довольно таки четко прописан robots.txt.

Яндекс этот файлик прохавал очень четко. А вот гуг наотрез не хочет его видеть, может что то написал не так?? http://villabest.ru

В индексе Яндекса 122 страницы

В индексе Гугла 1244 страницы

User-agent: *

Disallow: /administrator/

Disallow: /cache/

Disallow: /components/

Disallow: /includes/

Disallow: /installation/

Disallow: /language/

Disallow: /libraries/

Disallow: /media/

Disallow: /modules/

Disallow: /plugins/

Disallow: /templates/

Disallow: /tmp/

Disallow: /xmlrpc/

Disallow: /*write

Disallow: /*Los

Disallow: /*userid

Disallow: /*user

Disallow: /*Vse-ob-yavleniya

Disallow: /*Sovety

Disallow: /*Karta-sayta

Disallow: /*all-ads

Disallow: /*adsmanager

Disallow: /*catid

Disallow: /*Kontakty

M
На сайте с 27.10.2006
Offline
111
#1

В WMT есть инструмент для проверки robots.txt. Если он не видит файл, то, логично, дело не в файле.

Если же Google просто его игнорирует, то да, это он может.

P.S. Вместо того, чтобы показывать сотням ботов неизвестного назначения наличие каких-то папок типа /plugins или /libraries, правильнее бы настроить htaccess и отдавать 404 при запросе непубличных папок.

Бесплатное хранилище данных (http://bit.ly/gJYy9Z) (5GB) с синхронизацией. По ссылке — бонус 500MB.
Y
На сайте с 25.10.2007
Offline
198
#2
Maxoud:
P.S. Вместо того, чтобы показывать сотням ботов неизвестного назначения наличие каких-то папок типа /plugins или /libraries, правильнее бы настроить htaccess и отдавать 404 при запросе непубличных папок.

А где найти инструкцию или мануал по этому вопросу, дело в том, что не знаю где это искать

M
На сайте с 27.10.2006
Offline
111
#3

Я давно этого не делал, поэтому рад буду сам вспомнить. Попробую вспомнить и заодно пару ссылок нарою.

Есть вопрос: есть ли доступ к настройкам сервера (файл httpd.conf)?

Maxoud добавил 03-12-2010 в 20:23

Нашел старое решение с новым тюнингом. Напишу в выходные, потому что пятница и я прямо сейчас еду на живой dub-step в кафешку.

Y
На сайте с 25.10.2007
Offline
198
#4
Maxoud:
Нашел старое решение с новым тюнингом. Напишу в выходные, потому что пятница и я прямо сейчас еду на живой dub-step в кафешку.

Ок, спасибо за помощь, жду.

M
На сайте с 27.10.2006
Offline
111
#5

Хех, тюнинг касался только моих узких дел. Так что вещь старая и без тюнинга :)

Разместите файл .htaccess в директориях, которые нужно защитить, и напишите в нем такие строки:

order deny, allow

deny from all

При запросе через HTTP сервер будет выдавать ошибку, а ваша Джумла будет кушать оттуда файлы как надо, ибо она по абсолютному адресу будет идти, а не через HTTP.

Только не закрывайте все подряд, а только служебные папки. Те папки, которые таким образом закроете, можно исключить из robots.txt. Меньше строк = меньше гемора.

Если тут кто-то силен в тонкостях .htaccess, пожалуйста, поправьте меня, если я ошибся в порядке следования deny и allow. Но, вроде нет.

Y1
На сайте с 14.02.2010
Offline
65
#6

Maxoud,

order allow,deny

deny from all
M
На сайте с 27.10.2006
Offline
111
#7

Спасибо!

Там есть какая-то разница, которую я не могу уловить...

Z-Style
На сайте с 18.03.2010
Offline
185
#8

И еще по поводу robots.txt и игнорирование его гуглом:

Пока эксперементрировал с некоторыми вопросами по яндексу, создал копию сайта (и хорошо что открыл только чать страниц), в robots.txt запретил доступ для Google. Пока яндекс чехлился, Google как едреный мотор внес сайт в индекс. Я в ауе.. Снес дубль сайта, добавил его в WMT и там сделал заявку на удаление сайта пока не получил по шее. Ну да ладно, а теперь вопрос: как быть если понадобиться переехать сайту (Я/Г) на новый домен если Google игнорирует Disallow: / ?

M
На сайте с 27.10.2006
Offline
111
#9

robots.txt = зло.

Кроме как серверные средства (или HTTP-хэдеры через PHP) ничего больше не годится.

Четыре простых числа:

301, 302, 403, 404

Y
На сайте с 25.10.2007
Offline
198
#10

Бляха муха. как все просто в WP, Возможности меньше, но зато никаких дебильных дублей, нормальные ЧПУ со старта, просто бомба.. Если бы virtmart еще работал была бы просто бомба..

Спасибо за советы....

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий