Это зависит от сайта вора. В большинстве случаев у него директива не указана, тогда да. А если указана, то не факт. Поищите тему "Яндекс решето" там всё обсуждается. Но кое-какие меры они приняли, так что теперь склеить чужой сайт сложнее.
Создаёте текстовый файл, называете его robots.txt
Внутри пишите:
User-agent: *
Disallow:
Host: swim7.narod.ru
Сохраняете, кидаете в корень сайта на фтп. Проверить наличие тут: http://webmaster.yandex.ru/wmconsole/public_robots_txt.xml
Как составлять роботс на будущее: http://help.yandex.ru/webmaster/?id=996567#996574
Но это не шибко поможет, в таких случаях более полезно переподтвердить владение сайтом.
Собственно можно нажаловаться Я как на аффилат, ведь координаты то одни - пусть викинет дубль из выдачи по всем запросам, а в индексе пусть оставляет, это пофигу.
Подтвердите права на сайт в панели вебмастера.
Скажут хостеру пишите.
А как с ранжированием - кто выше в выдаче стоит?
Ну например, по запретам в роботсе.
Может разный сайтов, а не разных регионов?
Если у сайтов - разнятся позиции по разным регионам - то запрос геозависимый. Разные выдачи - разные позиции.
Смс Netcat лайт. Хостинг наунет. Написали, что ещё нескольких таких обращений и сайт отключат. Так что урл дать могу, но никаких обращений вашей программой к сайту чтобы не было - так, что это вам даст? Структура сайта стандартная.
А собирали факторы, однозначно делающие запрос геозависимым или нет? Пример: "скачать +" - независим, а "аренда +" - зависим.
Так есть же признаки разных движков, на форуме как-то разбирали. Но фильтруя движки по их признакам, надо иметь уверенность, что результат будет лучше, иначе это паранойя. Были ли поставлены эксперименты, что от ссылок с сайтов на определённых движков толку мало?
ТС написал, вроде как макет.. А что клиент получил со слоями или без не известно. Если со слоями, то может сказать, что мол сам это сделал. А ТС может сказать, что это деньги за консультацию как сделать. Ничья. Если без слоёв - то понятно кто делал. Но лучше бы выслали с водяными знаками образец.