Стоит ли скрывать бэки по Yahoo и как правильно?

12
tuz
На сайте с 31.01.2009
Offline
58
tuz
1394

Новый сайт. Еще не проиндексирован. Для рунета. Хочу скрыть бэки (будущие). Как лучше это сделать?

Читал что можно закрыть от индексации Yahoo в robots.txt. Как это сделать правильно и надежно?

P.S. отрицательная сторона скрытия бэков таким образом?

Спасибо.

S2
На сайте с 07.01.2008
Offline
611
#1
tuz:
P.S. отрицательная сторона скрытия бэков таким образом?

Трафика с Яху не будет.

tuz:
Новый сайт. Еще не проиндексирован. Для рунета. Хочу скрыть бэки (будущие). Как лучше это сделать?

Ссылками торговать будете?

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
tuz
На сайте с 31.01.2009
Offline
58
tuz
#2

Трафик с Яху не нужен. Ссылками торговать не планирую.

maximus200
На сайте с 08.09.2004
Offline
185
#3

В свое время был такой вопрос и у меня, подсказали добрые люди на серче, продолжаю традицию :)

Данный роботс закрывает все шлаковые боты, включая яху от индексации. Яндекс и гугл прекрасно индексят сайт.

robots.txt

User-agent: gigabot

Disallow: /
User-agent: Gigabot/2.0
Disallow: /
User-agent: msnbot
Disallow: /
User-agent: msnbot/1.0
Disallow: /
User-agent: ia_archiver
Disallow: /
User-agent: libwww-perl
Disallow: /
User-agent: NetStat.Ru Agent
Disallow: /
User-agent: WebAlta Crawler/1.3.25
Disallow: /
User-agent: Yahoo!-MMCrawler/3.x
Disallow: /
User-agent: MMCrawler/3.x
Disallow: /
User-agent: NG/2.0
Disallow: /
User-agent: slurp
Disallow: /
User-agent: aipbot
Disallow: /
User-agent: Alexibot
Disallow: /
User-agent: GameSpyHTTP/1.0
Disallow: /
User-agent: Aqua_Products
Disallow: /
User-agent: asterias
Disallow: /
User-agent: b2w/0.1
Disallow: /
User-agent: BackDoorBot/1.0
Disallow: /
User-agent: becomebot
Disallow: /
User-agent: BlowFish/1.0
Disallow: /
User-agent: Bookmark search tool
Disallow: /
User-agent: BotALot
Disallow: /
User-agent: BotRightHere
Disallow: /
User-agent: BuiltBotTough
Disallow: /
User-agent: Bullseye/1.0
Disallow: /
User-agent: BunnySlippers
Disallow: /
User-agent: CheeseBot
Disallow: /
User-agent: CherryPicker
Disallow: /
User-agent: CherryPickerElite/1.0
Disallow: /
User-agent: CherryPickerSE/1.0
Disallow: /
User-agent: Copernic
Disallow: /
User-agent: CopyRightCheck
Disallow: /
User-agent: cosmos
Disallow: /
User-agent: Crescent
Disallow: /
User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
Disallow: /
User-agent: DittoSpyder
Disallow: /
User-agent: EmailCollector
Disallow: /
User-agent: EmailSiphon
Disallow: /
User-agent: EmailWolf
Disallow: /
User-agent: EroCrawler
Disallow: /
User-agent: ExtractorPro
Disallow: /

User-agent: FairAd Client
Disallow: /

User-agent: Fasterfox
Disallow: /

User-agent: Flaming AttackBot
Disallow: /

User-agent: Foobot
Disallow: /

User-agent: Gaisbot
Disallow: /

User-agent: GetRight/4.2
Disallow: /

User-agent: Harvest/1.5
Disallow: /

User-agent: hloader
Disallow: /

User-agent: httplib
Disallow: /

User-agent: HTTrack 3.0
Disallow: /

User-agent: humanlinks
Disallow: /

User-agent: IconSurf
Disallow: /

User-agent: InfoNaviRobot
Disallow: /

User-agent: Iron33/1.0.2
Disallow: /

User-agent: JennyBot
Disallow: /

User-agent: Kenjin Spider
Disallow: /

User-agent: Keyword Density/0.9
Disallow: /

User-agent: larbin
Disallow: /

User-agent: LexiBot
Disallow: /

User-agent: libWeb/clsHTTP
Disallow: /

User-agent: LinkextractorPro
Disallow: /

User-agent: LinkScan/8.1a Unix
Disallow: /

User-agent: LinkWalker
Disallow: /

User-agent: LNSpiderguy
Disallow: /

User-agent: lwp-trivial
Disallow: /

User-agent: lwp-trivial/1.34
Disallow: /

User-agent: Mata Hari
Disallow: /

User-agent: Microsoft URL Control
Disallow: /

User-agent: Microsoft URL Control - 5.01.4511
Disallow: /

User-agent: Microsoft URL Control - 6.00.8169
Disallow: /

User-agent: MIIxpc
Disallow: /

User-agent: MIIxpc/4.2
Disallow: /

User-agent: Mister PiX
Disallow: /

User-agent: moget
Disallow: /

User-agent: moget/2.1
Disallow: /

User-agent: Mozilla/4.0 (compatible; BullsEye; Windows 95)
Disallow: /

User-agent: MSIECrawler
Disallow: /

User-agent: NetAnts
Disallow: /

User-agent: NICErsPRO
Disallow: /

User-agent: Offline Explorer
Disallow: /

User-agent: Openbot
Disallow: /

User-agent: Openfind
Disallow: /

User-agent: Openfind data gatherer
Disallow: /

User-agent: Oracle Ultra Search
Disallow: /

User-agent: PerMan
Disallow: /

User-agent: ProPowerBot/2.14
Disallow: /

User-agent: ProWebWalker
Disallow: /

User-agent: psbot
Disallow: /

User-agent: Python-urllib
Disallow: /

User-agent: QueryN Metasearch
Disallow: /

User-agent: Radiation Retriever 1.1
Disallow: /

User-agent: RepoMonkey
Disallow: /

User-agent: RepoMonkey Bait & Tackle/v1.01
Disallow: /

User-agent: RMA
Disallow: /

User-agent: searchpreview
Disallow: /

User-agent: SiteSnagger
Disallow: /

User-agent: SpankBot
Disallow: /

User-agent: spanner
Disallow: /

User-agent: SurveyBot
Disallow: /

User-agent: suzuran
Disallow: /

User-agent: Szukacz/1.4
Disallow: /

User-agent: Teleport
Disallow: /

User-agent: TeleportPro
Disallow: /

User-agent: Telesoft
Disallow: /

User-agent: The Intraformant
Disallow: /

User-agent: TheNomad
Disallow: /

User-agent: TightTwatBot
Disallow: /

User-agent: toCrawl/UrlDispatcher
Disallow: /

User-agent: True_Robot
Disallow: /

User-agent: True_Robot/1.0
Disallow: /

User-agent: turingos
Disallow: /

User-agent: TurnitinBot
Disallow: /

User-agent: TurnitinBot/1.5
Disallow: /

User-agent: URL Control
Disallow: /

User-agent: URL_Spider_Pro
Disallow: /

User-agent: URLy Warning
Disallow: /

User-agent: VCI
Disallow: /

User-agent: VCI WebViewer VCI WebViewer Win32
Disallow: /

User-agent: Web Image Collector
Disallow: /

User-agent: WebAuto
Disallow: /

User-agent: WebBandit
Disallow: /

User-agent: WebBandit/3.50
Disallow: /

User-agent: WebCapture 2.0
Disallow: /

User-agent: WebCopier
Disallow: /

User-agent: WebCopier v.2.2
Disallow: /

User-agent: WebCopier v3.2a
Disallow: /

User-agent: WebEnhancer
Disallow: /

User-agent: WebSauger
Disallow: /

User-agent: Website Quester
Disallow: /

User-agent: Webster Pro
Disallow: /

User-agent: WebStripper
Disallow: /

User-agent: WebZip
Disallow: /

User-agent: WebZip
Disallow: /

User-agent: WebZip/4.0
Disallow: /

User-agent: WebZIP/4.21
Disallow: /

User-agent: WebZIP/5.0
Disallow: /

User-agent: Wget
Disallow: /

User-agent: wget
Disallow: /

User-agent: Wget/1.5.3
Disallow: /

User-agent: Wget/1.6
Disallow: /

User-agent: WWW-Collector-E
Disallow: /

User-agent: Xenu's
Disallow: /
User-agent: Xenu's Link Sleuth 1.1c
Disallow: /
User-agent: Zeus
Disallow: /
User-agent: Zeus 32297 Webster Pro V2.9 Win32
Disallow: /
User-agent: Zeus Link Scout
Disallow: /
S2
На сайте с 07.01.2008
Offline
611
#4
tuz:
Ссылками торговать не планирую.

Тогда зачем вам закрывать исходящие бэки, раз их у вас не будет?

[Удален]
#5
tuz:
P.S. отрицательная сторона скрытия бэков таким образом?

если сайт не проиндексирован ни кем кроме Яши и Гугла - это наводит на мысли о сетке сайтов ;)

burunduk добавил 11.05.2010 в 15:14

Str256:
Тогда зачем вам закрывать исходящие бэки, раз их у вас не будет?

входящие :)

burunduk добавил 11.05.2010 в 15:16

maximus200, через .htaccess надежнее и не так палевно :)

A0
На сайте с 01.06.2009
Offline
64
#6

Кто-нибудь понял, что значит скрыть беки?

Каким образом можно скрыть внешние ссылки и главное от кого??

Мой блог Заметки программиста (http://oignatov.blogspot.com/)
S2
На сайте с 07.01.2008
Offline
611
#7
burunduk:
входящие

Входящие нельзя закрыть на своём сайте от отображения в Яху путём блокировки их в роботсе. Их надо закрывать у тех сайтов с которых будут покупаться ссылки. Что мало реально, если их владельцы будут против.

abcseo
На сайте с 22.12.2006
Offline
55
#8
Str256:
Входящие нельзя закрыть на своём сайте от отображения в Яху путём блокировки их в роботсе. Их надо закрывать у тех сайтов с которых будут покупаться ссылки. Что мало реально, если их владельцы будут против.

Это значит, что палево по Яху неизбежно? :)

A0
На сайте с 01.06.2009
Offline
64
#9
abcseo:
Это значит, что палево по Яху неизбежно? :)

Только вот левые внешние ссылки никак пагубно не влияют на сайт. И скрывать их смысла нет. В худшем случае они не проиндексируются

Trean
На сайте с 28.10.2009
Offline
78
#10
abcseo:
Это значит, что палево по Яху неизбежно? :)

Если доноры не закроют сами, то неизбежно.

Если речь идет не о сетях, а о нормальных себе беках, то в чем причина желания их спрятать? Жалко, что бы конкуренты увидели?

Беру заказы на продвижение, также предлагаю качественные консультации и аудиты сайтов (обращаться в ЛС).
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий