ТС, вы изначально не правильно подошли к решению вопроса ввиду заблуждения по поводу индексации Яндекса и Каталога тут.бай. Сайт может не быть в каталоге ту-а, но в поиске по тут.баю выдаваться. Фильтр поиска на тут.бае ограничивает сайты, которым яндекс присвоил регион Беларусь (включая сайты для всех регионов).
Поэтому, ваши действия не приведут к желательным результатам. Вам нужно либо загнать второй сайт в выдачу тут.бая, изменив на сайте реквизиты и попытавшись уйти от дубля фирмы (в крайнем случае уехать на другой хостинг). Либо усилить первый сайт вторым, сделав второй сайт прямым партнером первого но в другом регионе, кроме Беларусь. Тогда, оба сайта могут оказаться в выдаче и в тут.бае и в Яндексе но более весомый будет тот, который в своем регионе.
Я так держал два портала около двух лет, в разных регионах Россия и Беларусь. Потом зеркальщик решил что это уже слишком, полный дубль контента и дизайна, и приклеил Белорусский к Российскому, пришлось их расклеивать разным контентом и контактами.
ТС, вам в начале уже делали верное замечание - страницы товара для G являются практически идентичными. Ввиду однообразной обвязки и слишком малого объема текста самого описания товара, который отличается. Если этот отличающийся текст будет в 2,5 и выше раз превышать объем текста обвязки, тогда эти страницы начнут попадать в индекс и без дополнительного внешнего с жирных сайтов. А иначе, только количество жирных внешних увеличит количество в индексе таких одинаковых страничек.
Кинул в личку вам один из своих многостраничных сайтов такого же типа - посмотрите, что в гугле всего 7000 в индексе, а в Я 50 000. Причем, гугл индексировал сначала 40 000, потом скинул на 3К, а потом по мере увеличения внешки, добавлял до текущего. Сейчас я остановил внешку и кол-во в индексе гугла вот уже два месяца стоит как вкопанное около 7К. Начну увеличивать - будет расти дальше.
Да врядли. Вроде, по остальным материалам на блоге, человек уверен в том, что пишет, просто накипело у него, вот и выложил сие творение. :)
Ну, человек (lasto тобишь) по своему видит мир в свете последних изменений в алгоритмах, зачем же его разубеждать в сверхестественности происходящего то? :) Ппавильно товарищ lasto, все это происки врагов с крупными кошельками и они повсюду... :)
Смотря что за тема статей для перевода. Я как то варезник набивал переводным контентом, так на сайте переводчиков попросил, и мне за символическую плату сделали конфигурационный файл для темы программы, игры, интернет. После этого ПРОМТ стал переводить просто загляденье, от нормального рерайта не отличишь. Редко приходилось подправлять перевод перед постом на сайт.
Ну это вы зря, прикручивать влияние установки рекламного кода к общесезонному падению трафа - жуть. Траф всегда в этот период падает, можете глянуть срезы по вашим запросам по месячно и увидите разницу в их наборе.
Странно только для избранных наверное. Пробил несколько других урлов своих - нету параметров. А для серча есть :(
Дело не в преимуществе. Когда я этот движок делал, я просто на тот момент так его реализовал, что получиось ежедневное смещение информации по страницам. Уже через года полтора я писал движки с постоянными страницами и решил вернуться к этим и подправить. Но, проанализировав поведение роботов на них - решил не трогать, потому, как отлично получилось. Робот постоянно пасется и постоянно дает прирост НЧ. И я не стал их трогать, так и работают на этом движке.
У меня три портала построены на движке полностью рандомном. Так, что не неделю - каждый день разные тайтлы, кейворды, контент на одном и том же адресе. Результат - бот не уходит с сайта, каждые 10-20 минут индексит. Любая добавленная инфа (вплоть до страниц третьего уровня) индексится максимум за несколько часов. Единственный минус - бот нагрузку дает, иногда мешая пользователям. По НЧ очень высоко ставит такие страницы сразу после их изменения, при этом страница со старым контентом тоже отсается в выдаче еще 1-2 месяца (по предыдущим ключевикам), в результате нарастает ком каждый день НЧ запросов, по которым идет пернаправление на сайт из ПС. Единственное что останавливает эту лавину - полный рандом мало попадает в нужные ключевики, он генерится из текущего содержимого, а оно не всегда совпадает с запросами пользователей. Но если генерацию направлять на нужные ключевики, то НЧ собрать можно очень много.
Клоакингом тут и рядом не стояло - это обычное обновление страницы. Бот отлично привыкает к таким изменениям.
Судя по видео, он получает только корень, но не "все с сайта"?