ParserYa

ParserYa
Рейтинг
29
Регистрация
04.10.2010

На сайтах www.site-1.ru и www.text.site.ru в robots.txt:

User-agent: *

Disallow: /

Как вы можете на www.site.ru закрыть от индексации сайты www.site-1.ru и www.text.site.ru ??

То есть, по Вашему мнению, всех конкурентов таким образом закрывать можно?

Вызов скрипта в коде виден будет. Но если мне понадобится спрятать создание какого то блока, я сделаю это так, что даже человеку отлично владеющему Яваскриптом понадобится время, что бы это отследить.

Рекомендую Вам почитать руководство по составлению файла robots.txt

noname_lviv:



User-agent: *
Disallow:

Sitemap: http://....


"Disallow: " равносильно "Allow: /" то есть разрешить к индексации все. Не вижу причин отсеивать донора именно по этому параметру.

noname_lviv:

бывают индивиды :

User-agent: *
Disallow: /

Здесь запретить индексацию всего, соответственно покупать есть смысл только если вам нужны доноры не в индексе ПС.

Rassmus:
А просто следить за сайтом не получается? Хотя бы html подозрительных страниц просматривать?

Если что-то подгружается через Яваскрипт - вы не увидите этого в простом просмотре исходного кода... Поэтому все и советуют смотреть с помощью инструментов, позволяющих просмотреть код с учетом подгруженного Яваскрипта.

В опере Dragonfly еще можно.. Правой кнопкой, проинспектировать элемент.

Или сниффером любым.

Свяжитесь со мной по ICQ или здесь в личке для более детального рассмотрения вашей проблемы.

А у вас заказана подготовка файла в виде архива в настройках Я.Вебмастер?

Подробнее вы можете прочитать здесь: http://forum.controlstyle.ru/topic/530/

Light Phantom:
из названного присмотритесь к Semonitor'у. Из неназванного присмотритесь к CS Yazzle

ТС из неназванного присмотритесь к SeoBudget

Вы можете воспользоваться любым снифером.. если интересует именно по этой ссылке - отпишите в личку - я вам скажу

Хотелось бы увидеть пациента.. по идее дублей быть не должно..

Всего: 352