решили купить новые домены.
оставить для индексирования только главную и разделы, подразделы, конечные страницы и сервисные страницы делать на ajax, вероятно добавим на каждый уникальный FAQ по представленным товарам, и реальные тестимони (защита от автофильтра); разные контакты - операторы повесятся с кучей асек :) , купить пока на каждый магазин по мобильному (защита от стука)
при таким варианте теряем нч и часть сч (будем пытаться текстами потом вернуть), дополнительные расходы.
Может кто менее радикальный способ может предложить?
чуть опоздал - писатель опередил :)
суть проблемы:
десяток магазинов - каждый позиционировался по своим (непересекающимся) ключевикам и группам товаров, общего только контактный телефон, находились на 15-19 позициях - остался один (и как обычно самый бесполезный :) )
второй десяток магазинов - у каждого магазина было свое уникальное описание товаров (заказывали специально у журналистов), общего - skype & icq, телефоны и адреса (города) разные - остался один.
это что, ручной бан? (но ведь они в топе не были - не уж то ручной стук по 2-й - 3-й страницам)
автоматический бан? (из-за нескольких символов nic&uin)
или же ищет урл http://www.icq.com/whitepages/cmd.php?uin=номерок и по нему работает - но то имхо анриел.
P.S. дизайны магазинов уникальные (заказывались), тексты уникальные заказывались, клонов пока нет, разбивка была в первом случае по товарам, во втором по регионам.
Что думать?
5-10 сайтов желательно разных тематик на IP вполне нормально (в случае одинаковой - 5)
перелинковывать не стоит вычисляется, либо строить "рваную сетку", но в свете последних событий я бы не стал, уж лучше про каталогам статей прогони сайты
/ru/forum/search-engines/website-catalogs
или
/ru/forum/optimizators-exchange/article-posting
во первых ни на одном из сайтов нет robots.txt, и соответственно без host это не основной и зеркало, а два клона - отсюда и фильтр (в индексе allcredit - "показать без исключения").
во вторых главная страница и page1.html идентичны - "внутренние зеркала"
в третьих текст на главной неуникален (судя по выдаче по части фразы ты использовал часть текста в качестве описания - так делать нельзя)
так, что пропиши в robots.txt на обоих сайтах Host: www.osnovnoi-sait.com.ua
перепиши текст на главной, и пусть программист твой разберется с дублями страниц.
это для начала, сделаешь - сбросишь в личку еще подскажу.
из под бана а затем фильтра вышли без ссылочного, приходилось наращивать по новой.
зеркальщик запрашивал главную с www без www в данном случае
если host не прописан - то может поклеить.
и сейчас отладка идет.
давайте все таки закроем обсуждение этих результатов.
а каждый для сам для себя решит стоит ему или стоит покупать.
у меня были такие случаи - и не один.
надо разбавлять не уникальный (или ставший неуникальным в следствии действий плагиаторов) контент, из под фильтра выходят новые (уникальные) страницы
коль каждый при своем мнении то:
1. либо закрываем обсуждение моего эксперемента;
2. либо доводы - цифры - аргументы, а не только сомнения и фразы станиславского.
ТО hero
анкоры были:
секвентальная шестиступенчатая, сагрегатированна секвентальная, секвентальная передача
эта станица была создана специально (мной был написан текст на 2800 символов).
т.е. ее позиции были интересны только в чисто научном аспекте.
выправлять - это если запрос был бы интересным :)
интересовало: возможность вывода г-ссылками, срок жизни этих ссылок (20 июня-73, 9 августа-21), позиция по истечении 2 месяцев, средства которые были затрачены, отношение затраченных средств и позиции по запросу - т.е. экономическая целесообразность покупки таких ссылок.
ТО search bot
то, что летом менялось - так и теперь меняется, гсайты как тогда вылетали - так и теперь вылетают из индекса, отношение к подобным сайтам уяндекса с той поры никак не улучшилось в лучшую сторону :)