Прячем бэки?

MO
На сайте с 19.05.2006
Offline
140
1241

Кейс такой. Планирую продвинуть сайт под бурж, в определенном регионе, при этом хотелось бы спрятать бэки от ахрефса и т.д.

Варианты:

1) Для своей сетки прописываем в роботсе запреты для роботов ахрефса и им подобным.

2) Для чужих сайтов, допустим для покупных статей или ссылочной безанкорной массы, покупаем ссылки на site1.com а на site1.com ставим 301 на нужный нам сайт, в итоге спалить сетку и методы продвижения становится проблематичным.

Пока не вижу препятствий, но возможно они есть, кто подскажет?

Пока что сам такого не пробовал, планирую только, вот решил посоветоваться прежде чем выделять на это бюджет.

Чем больше изучаешь SEO, тем неприятнее ощущать себя трафом =)
d4k
На сайте с 02.03.2010
Offline
146
d4k
#1

robots не поможет. Закрывают ботов сервисов и их ip в htaccess. 301 не нужен.

I
На сайте с 26.02.2014
Offline
49
#2

Во втором варианте не уверен, ибо site1.com должен быть далеко не херовым.

Ну а первым способом давно многие пользуются, особенно с ломов

Re@L
На сайте с 02.11.2008
Offline
175
#3

Ахрефс уже учитывают домены с 301 редиком, суммирует и показывается их беки как для основного, поэтому если будешь делать по второй схеме, обязательно надо поставить клоаку для ахрефс/маджестик и прочих ботов

A
На сайте с 03.04.2010
Offline
179
#4

1. можно и через роботс но лучше через htaccess

2. ahrefs показывает ссылки с 301ого. но какой смысл их скрывать? если ты смог купить на каком-то сайте ссылки, то их там и до тебя покупали. и двигать чисто гестблоггингом настолько дорого что даже если конкуренты найдут все твои ссылки не факт что они будут копировать за тобой. другое дело своя сетка, которая является основной силой

vga1
На сайте с 18.02.2007
Offline
251
#5

При втором варианте, если site1 ваш, можете тоже контролировать бота, и если это ahrefs, редиректить на другой домен.

Для первого варинта:

robots.txt

# Blocking bad link checker robots

User-agent: AhrefsBot

Disallow: /

User-agent: Alexibot

Disallow: /

User-agent: MJ12bot

Disallow: /

User-agent: SurveyBot

Disallow: /

User-agent: Xenu's

Disallow: /

User-agent: Xenu's Link Sleuth 1.1c

Disallow: /

User-agent: rogerbot

Disallow:/

.htaccess

RewriteEngine on

SetEnvIfNoCase User-Agent .*rogerbot.* naughty

SetEnvIfNoCase User-Agent .*mj12bot.* naughty

SetEnvIfNoCase User-Agent .*ahrefsbot.* naughty

Order Allow,Deny

Allow from all

Deny from env=naughty

MO
На сайте с 19.05.2006
Offline
140
#6

Огромное спасибо, господа)

MO
На сайте с 19.05.2006
Offline
140
#7

Я тут подумал, возможно вариант с роботс не очень, все же маловероятно что кто-то будет прятать свои сайты от ахрефс+ из обычных вебмастеров, только сеошники свои сетки. Так что мешает гуглу такие моменты трекать и понижать значимость. А в итоге ты это достоверно никогда и не узнаешь.

Я планирую делать качественные сдл, с обновляемой инфой, хорошим дизом и т.д., возможно в таком случае и не обязательно прятать бэки, потому что даже по стуку сетка не вылетит. К сожалению, не удалось нагуглить вменяемый опыт коллег, в данном случае.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий