mastserg

mastserg
Рейтинг
108
Регистрация
14.04.2005
Интересы
хорошо жить

решили купить новые домены.

оставить для индексирования только главную и разделы, подразделы, конечные страницы и сервисные страницы делать на ajax, вероятно добавим на каждый уникальный FAQ по представленным товарам, и реальные тестимони (защита от автофильтра); разные контакты - операторы повесятся с кучей асек :) , купить пока на каждый магазин по мобильному (защита от стука)

при таким варианте теряем нч и часть сч (будем пытаться текстами потом вернуть), дополнительные расходы.

Может кто менее радикальный способ может предложить?

чуть опоздал - писатель опередил :)

суть проблемы:

десяток магазинов - каждый позиционировался по своим (непересекающимся) ключевикам и группам товаров, общего только контактный телефон, находились на 15-19 позициях - остался один (и как обычно самый бесполезный :) )

второй десяток магазинов - у каждого магазина было свое уникальное описание товаров (заказывали специально у журналистов), общего - skype & icq, телефоны и адреса (города) разные - остался один.

это что, ручной бан? (но ведь они в топе не были - не уж то ручной стук по 2-й - 3-й страницам)

автоматический бан? (из-за нескольких символов nic&uin)

или же ищет урл http://www.icq.com/whitepages/cmd.php?uin=номерок и по нему работает - но то имхо анриел.

P.S. дизайны магазинов уникальные (заказывались), тексты уникальные заказывались, клонов пока нет, разбивка была в первом случае по товарам, во втором по регионам.

Что думать?

5-10 сайтов желательно разных тематик на IP вполне нормально (в случае одинаковой - 5)

перелинковывать не стоит вычисляется, либо строить "рваную сетку", но в свете последних событий я бы не стал, уж лучше про каталогам статей прогони сайты

/ru/forum/search-engines/website-catalogs

или

/ru/forum/optimizators-exchange/article-posting

во первых ни на одном из сайтов нет robots.txt, и соответственно без host это не основной и зеркало, а два клона - отсюда и фильтр (в индексе allcredit - "показать без исключения").

во вторых главная страница и page1.html идентичны - "внутренние зеркала"

в третьих текст на главной неуникален (судя по выдаче по части фразы ты использовал часть текста в качестве описания - так делать нельзя)

так, что пропиши в robots.txt на обоих сайтах Host: www.osnovnoi-sait.com.ua

перепиши текст на главной, и пусть программист твой разберется с дублями страниц.

это для начала, сделаешь - сбросишь в личку еще подскажу.

из под бана а затем фильтра вышли без ссылочного, приходилось наращивать по новой.

зеркальщик запрашивал главную с www без www в данном случае

если host не прописан - то может поклеить.

и сейчас отладка идет.

давайте все таки закроем обсуждение этих результатов.

а каждый для сам для себя решит стоит ему или стоит покупать.

у меня были такие случаи - и не один.

надо разбавлять не уникальный (или ставший неуникальным в следствии действий плагиаторов) контент, из под фильтра выходят новые (уникальные) страницы

коль каждый при своем мнении то:

1. либо закрываем обсуждение моего эксперемента;

2. либо доводы - цифры - аргументы, а не только сомнения и фразы станиславского.

ТО hero

анкоры были:

секвентальная шестиступенчатая, сагрегатированна секвентальная, секвентальная передача

эта станица была создана специально (мной был написан текст на 2800 символов).

т.е. ее позиции были интересны только в чисто научном аспекте.

выправлять - это если запрос был бы интересным :)

интересовало: возможность вывода г-ссылками, срок жизни этих ссылок (20 июня-73, 9 августа-21), позиция по истечении 2 месяцев, средства которые были затрачены, отношение затраченных средств и позиции по запросу - т.е. экономическая целесообразность покупки таких ссылок.

ТО search bot

то, что летом менялось - так и теперь меняется, гсайты как тогда вылетали - так и теперь вылетают из индекса, отношение к подобным сайтам уяндекса с той поры никак не улучшилось в лучшую сторону :)

Всего: 572