buddha

buddha
Рейтинг
38
Регистрация
06.03.2010

ап просто офигенный, ссылки наконец учлись, те которые покупал почти 3 недели назад

Dubovoj, вы так и не сказали что конкретно значит "ссылка сработала", а если "сработала" как вы говорите, то как вы это определили, вас уже раза три спросили это, но вы игнорируете этот вопрос, мне это говорит только о том, что вы сами в своем метод настолько неуверены, что не стоило даже писать об этом эксперименте

а если ему липосакцию какую сделать?)))

в китай отправьте http://magazeta.com/news/china_and_world/2009/07/15/cat-as-food/

а сами нового заведите, только сразу начинайте правильно кормить

AboutSEO:
проверка левых файлов, скорее всего связана с проверкой ответов апача,
ведь его можно настроить, что он на все подряд будет отвечать - 200.

похоже на правду

Kasperzzz:
AboutSEO Это Яндекс, шо тут скажешь, я недавно видел ссылку из старой подписи на SE, во внешних в явм сайта.

кстати, никто не замечал, что когда добавляешь сайт в вебмастер и выбираешь способ подтвержедения текстовым файлом, то в логах видно, что он проверяет еще и левые имена файлов подтвержедния, самое интересное, что он иногда заходит и пытается перепроверить не только файл подтверждения который сам просит создать, но и левые имена файлов подтверждения, не замечал правда всегда ли левые имена файлов одни и те же проверяются, у гугла тоже пару раз такое замечал

давайте сначала разберемся в корректности эксперимента тс

chinatechnika:
вы первый пост прочтите, там же описано, как. Аффтор заявляет, что невозможно составить универсальный вайтлист, а о рабочести ссылки можно судить только по факту и только для конкретного сайта

С этим можно согласиться, вот только есть один момент. ТС поставил эксперимент на нескольких сайтах, а создатели агрегаторов ставят похожие эксперименты на сотнях, если не больше.

тс не говорит каким именно способом выявил что ссылки сработали, то ли он считал сработавшими все доноры которые были закуплены на запрос который поднялся, то ли еще как-то среди них уже выделил сработавшие

Fingard:
Здравствуйте. Прописал в robots.txt
Disallow: */feed
Disallow: /feed/
Но в логах сайта вижу, что робот яшки сканирует файлы feed. Так должно быть?

известный факт, мне кажется ему интересно нет ли чего плохого на сайте

не вижу плохого в темах со срачем, чем больше страниц в индексе, тем больше можно продать ссылок)

Всего: 463