Скорее всего, и не склеют.
Эти сайты только на первый взгляд как 2 капли воды, на на самом деле содержимое у них разное, а похожая только структура.
Первому сайту данные о товарах предоставляют российский магазины, второму - украинские. Причем предоставляются не только цены и названия, а также и описания товаров, которые конечно же, у разных магазинов разные.
Зайдите в любую категорию на каждом из сайтов, увидите.
Подскажите, а что значит при смене контента гугл сбросит траст домена?
Т.е. например, если я собираюсь полностью менять дизайн (html тоже, конечно поменяется), то сайт потеряет сильно в позициях на гугле?
Купил программу.
Вещь полезная.
Недоработки еще есть, но как программист знаю, что они есть в любом программном продукте, и их устранение это лишь вопрос времени.
А судя по истории этого топика, минусы постепенно устраняются, что радует.
Спасибо автору.
Это смотря с какой целью делать...
Если свои проекты поднимать, то парочки каталогов явно не хватит.
А если продавать ссылки на них, то тоже как-то мало. Плюс сами знаете, что сейчас с каталожными беками происходит.
Ну а если задаться целью просто сделать хороший каталог для души, то почему бы не сделать :)
Сделайте у себя на сайте тематический каталог ссылок - максимум 3-4 очень близкие рубрики, и меняйтесь вручную. И уж никак не помещайте на сайт форму добавления ссылки в ваш каталог.
В высококонкурентной мобильной тематике у меня порядка 1,5%. А как цены на 1-2 доллара снизили - стала 2,5%. Так что от цены зависит сильно, в первую очередь.
Если бюджет небольшой, то в случае интернет-магазина можно сконцентрироваться на покупающих запросах, например "nokia 6300 купить".
Таких запросов хоть и задают в разы меньше, чем просто "nokia 6300", но в таком подходе есть 2 преимущества:
- человек, пришедший по такому запросу более вероятно станет покупателем
- их дешевле и легче выводить в топ
Ну, старые домены 3го уровня у меня тоже в топе, причем даже по ВЧ есть.
А вот с новыми доменами 3го уровня проблемы.
А когда это было?
Кто-то тут уже затрагивал эту тему, поэтому возможно повторюсь.
Яндексу важно не ксап и сейп фильтровать, а неестественные ссылки, поэтому алгоритм может быть примерно такой.
1. Отлавливаем сайты, количество ссылок на который за определенный промежуток времени резко возросло. "Резкость" задается неким коэффициентом.
2. Проходим по списку отловленных сайтов, и рассматриваем каждый сайт в отдельности (С1, С2, С3... Сn).
2.1 Смотрим ссылки на сайт С1, С2, С3...Сn.
2.2 Допустим найдены сайты-доноры - Д1, Д2, Д3...Дn, которые ссылаются на отловленные сайты
2.3 Каждый из сайтов-доноров может быть найден 1 и более раз. Сайт-донор, который найден, например, 20 раз, скорее всего не является участником ссылкообменной сети, а сайт-донор, который найден более 100, скорее всего является. Данные цифры задаются опять таки некими коэффициентами, которые опередляются эмпирически.
Таким образом, мы имеем 1ый критерий, который указывает на продажность ссылок на сайте-доноре.
3. Можно найти и 2ой критерий. Одним из признаков неестественной ссылки может быть то, что ссылка находится в блоке ссылок. Это легко определяется простейшим HTML-анализом.
Комбинируя эти 2 критерии, можно уже принимать решение о том, продажные ли ссылки или нет. Причем, на мой взгляд, критерий 2 намного менее важен, чем критерий 1.
Наверняка, при желании можно придумать и другие критерии, которые будут уточнять алгоритм.