сколько раз терли - ROBOTS.TXT

A
На сайте с 12.01.2006
Offline
61
680

сам не разбирусь, нужна помощь, параллельно изучаю документацию по robots.txt

задача:

- закрыть сайт от всех ботов кроме

-- яндекса

-- rambler, google (сделать так чтобы они посещали сайт раз в 30 дней)

- на данный момент стоит robots.txt выписанный из одно топика на этом форуме, закрывающий всем ботам-паразитам доступ, однако судя по статистике сайта большую часть трафика жрут именно эти гады, у меня трафик платный не хотелось бы переплачивать!

Пожалуйста подскажите, как правильно реализовать задачу?

ps. сори если не туда запостил раздела подходящего не нашел!

ГЛАВная фарма-партнерка. Удобные аптеки, детальная статистика, высокий конверт! (http://www.glavmed.com/) | 150$ Бонус всем новичкам в ПОКЕРЕ (http://ru.pokerstrategy.com/u1XCQ7) $$$ на дороге (http://www.sape.ru/r.b17970ce21.php)
DyaDya
На сайте с 11.04.2007
Offline
147
#1

1. С помощью роботса, вы можете только разрешать и запрещать индексирование определенных разделов сайта как для всех роботов, так и для каждого отдельно.

2. Управлять временем посещения и индексации и т.д. возможности нет (может быть ПОКА нет).

3. И вообще от ВСЕХ БОТОВ с помощью robots.txt закрыть точно не удастся. Поскольку только некоторые боты уважают владельцев сайта и слушаются того, что прописано в robots.txt (одни из таких послушных, как раз те, которых вы и хотите оставить ;) )

Если у вас жрется много трафа, то не легче ли на нормальный хостинг сайт выложить?! А то ведь, если еще и посетители из поисковиков попрут, то вообще так разориться можно ;)

Изучайте еще:

http://www.rambler.ru/doc/robots.shtml

http://webmaster.yandex.ru/faq.xml?id=996583 (под яндекс, есть некоторые особенности, дополнительные директивы)

ЗЫ.

Если вы знаете имена ботов, которые вас постоянно теребят и нагоняют траффик ;), то можно полностью запретить им доступ к сайту с помощью .htaccess

Выбирайте качественный хостинг (http://vashmaster.ru/informaciya/o_poleznyh_programmah/news83.php) и продвигайте сайты в СЕОПУЛЬТ (http://seopult.ru/ref.php?ref=72b5ed9561fe66a1). А на «SAPE» я в обиде :) Не упрекайте за очепятки, пишу вслепую (http://ergosolo.ru/) и также делаю сайты (http://www.vashmaster.ru/) ;)
A
На сайте с 12.01.2006
Offline
61
#2

как узнать имена ботов?

вот скрин статистики по сайту на 3 января, как видно большинство трафика жрут какие-то бесполезные пауки, яндекс и google жрут в меру. Посетителей не боюсь, если они будут значит и возрастет польза и прибыль от сайта!

изучаю методы с robots далее...

Dreammaker
На сайте с 20.04.2006
Offline
569
#3
DyaDya:
2. Управлять временем посещения и индексации и т.д. возможности нет (может быть ПОКА нет).

можно сделать задержку перед "съеданием" каждой страницы. Точно директиву не помню, но кажется delay. Понимают ли её все боты - это уже отдельный вопрос. Но более-менее цивилизованные, имхо, понимают.

Apalon, поищите по СЕ по моему нику я давал взятый, кажется, с форума firstvds.ru роботс где был запрет для большой кучи западных роботов.

d1ma
На сайте с 18.03.2007
Offline
102
#4
задача:

- закрыть сайт от всех ботов кроме
-- яндекса
-- rambler, google

нереально, не все боты используют robots.txt

V
На сайте с 19.02.2004
Offline
87
Vin
#5

Ботам дествительно паразитам, абсолютно параллельно, что Вы там напишете в robots.txt.

Если не хотите пускать на сайт кого-то, например роботов, блокируйте им доступ к сайту с помошью настроек сервера.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий