Если файл виден так:
news.site.ru/robots.txt
то он будет закрывать папку:
news.site.ru/include/
если она прописана в роботе:
User-agent: *
Disallow: /include/
Блокируйте просто их айпишник и всего делов.
А вот если клиента хорошенько "накурить"..... :)
дырка.......
три три три
Вообще то когда покупают - смотрят именно бэклинки, ПР это так, предварительный показатель. Допустим не станет отображаться ПР, ведь есть еще ТИЦ.
Ага, спасибо, идея ясна, нужно попробвать сначала обрезать слова.
Кстати у меня ищет и целиком слово - придается уму больший вес, и часть члова - соответственно меньший вес, делается за 1 проход.
Там же ссылки живут сутки а то и меньше. Гугл их с вероятностью 99% не заметит, и следовательно ПР не повысится. Есть статья на этом сайте о эксперименте с ФФА, там ничего путного не вышло.
Ссылки надо покупать не от 5ПР а оценивать уровень конкуренции и свой ссылочный бюджет.
Ссылки ясен перец должны быть прямые, зачем отдавать деньги за редиректную?
Я сделал по "деревенски" - вычислил координаты в тексте запрашиваемых слов, отсчитал от каждого 20 символов назад и вперед и этот текст вывел в качестве "цитаты". На большее ума не хватило :)