Сорри, не вкурил сразу, что домен клона вашафирма.ру, а не вашафирма.джино.ру...
Тогда наталкивает на мысль, что может быть они хотят перепродать вам этот домен, только за большую цену? Кстати! Кто вам сказал об этом сайте? Как он его нашел и какое отношение к нему имеет? Может он хочет нажиться? =)
По поводу доступа это, конечно, шутка юмора. По поводу письма хостеру и в ПС это хорошие советы, просто не стал их повторять лишний раз.
Мне одному кажутся нелепыми советы про host в robots.txt? По-моему robots.txt работает по принципу остановки ботов, когда они хотят сканировать то, что не нужно. То есть прописывая host: www.site.ru вы попросту запрещаете ботам лазить в этой директории, если они пришли по урлу 'site.ru'. Это нужно для того, чтобы случайно не возникало проблем с дублированным контентом на доменах второго и третьего уровня, то есть с www и без.
К остальным существующим в сети сайтам этот файл robots.txt вообще никак не относится, он только для конкретного домена.
В вашем же случае сайт-клон висит на поддомене jino-net, а значит никакого влияния на него это не окажет. Вот если каким-то образом получить доступ к фтп этого сайта и прописать нужный host в robots там...
А других факторов для выхода из индекса не было? Сейчас же пойду прогонять сайты конкурентов по каталогам...
Способ еще не написал видимо про добавление сайта в вебмастер.яндекса и загрузки его карты сайта туда. По поводу каталогов - большинство из них немодерируемые, так что для тестовых сайтов это лучший способ имхо. Но вроде как бы они карму сайта прогоняемого портят для яндекса. А для гугла наоборот пока.
UPD: блоги и соцзакладки довольно быстро индексируются, то есть чаще всего в течение 1 дня, почти так же, как сайта на народе. Кстати, ты еще этот факт не учел)
Мда, интересно было почитать про такие закономерности у разных людей, может быть в этом что-то и есть... То есть все сводится к тому, что число внутренних ссылок со страницы не должно быть больше определенного % от общего числа страниц. Но если так, то ведь яндекс должен учитывать факт, что возможно, что он проиндексировал не все страницы сайта? Хотя для не новых сайтов этот вариант отпадает.
Второй предложенный вариант - это что число страниц 2 и 3 уровня должно быть не больше определенного % от всех страниц сайта. Ну это лечится легко - создаются тучи никому не нужных страниц 4 и 5 уровня с какой-нибудь ерундой =) Если есть навыки изменения любимого движка, это сделать несложно.
Третий вариант - это общее число внешних ссылок с сайта по отношению к числу страниц. Вот тут такой спорный вопрос, который существовал еще давным давно - когда отсеивались все каталоги сайтов. В каталогах понятно - там ссылок было больше, чем текста, а тут как? Здесь путь предохранения - продавать ссылки не со всех страниц сайта, но вот сколько же страниц можно отвести под ссылки и сколько надо оставить?
Эх, мыслей много, формулировать получается не всегда =))
С ума сойдешь. Это я по своему опыту говорю)) Чтобы достать сайт из фильтра нужно изменить несколько последних статей (около 20) и поклясться Платону, что больше такого не повторится =) Кстати, если контент будешь перелопачивать, все же не редактируй старые статьи, а удаляй и добавляй новые с новыми адресами)
Спасибо йфяцыч, хоть я и не ТС
а к ТС вопрос: ну найдете вы эти дубликаты, что с ними дальше делать будете? =)
Конечно, на ТИЦ то пофигу как будет ссылка стоять на главную или внутреннюю, тут другой вопрос - о склейке. По-моему несколько натуральнее выглядят ссылки все-таки на внутренние страницы сайта... Натуральнее для поисковиков в смысле. Но очень спорный вопрос это, тут без личного опыта нельзя сказать.
Мда, у меня вот буквально недавно на свежем ГС, который нормально индексировался, отрубился раздел лиексовых статей. Вообще индексироваться перестал, а остальные страницы нормально... Видимо все же распознает яндекс подобное гавнецо
Спасибо за развернутый ответ, честно говоря, не знал о том, что IP сервера влияет на ранжирование. Геозависимость это понятно, но вот определять ее по хостеру - это интересно. То есть как бы непременным условием SEO для региональных сайтов будет то, что хостер должен быть местный? И мастерхост, ник и прочие летят как фанера над парижем в свою москву =) Ну что ж, это хороший толчок для развития хостерского бизнеса в регионах, но вот в чем я сомневался - что на данный момент можно доверять имеющимся данным о местоположении серверов, все таки не у вас одних ситуация с хостингом в регионе плачевная. В общем, по-моему проще другими способами показать яндексу регион сайта, пусть даже написав письмецо платону... Да и в соседних ветках говорилось, что привязка к региону мало что дает