sheba

Рейтинг
57
Регистрация
24.03.2010
Mercury0009:
Изначально продвигали сайт по одному региону (около полугода), теперь начинаем продвижение по еще четырем. Посоветуйте, как лучше поступить - вынести региональные версии сайта на поддомен, или лить траф на основной сайт, используя каталоги по типу example.com/city/ ? Может быть, есть советы по добавлению Get-параметра в URL с указанием города?

Советую перед принятием решения провести анализ вашей тематики в нтересующих регионах.

1. Выделить основные вч запросы и проверить их на предмет геозависимости. Это даст вам представление, нужно ли оптимизировать проект под георанжировние

2. Если ваши запросы будут геозависимые (что скорее всего), то по этим основным запросам посмотрите выдачу. Оценитите количество региональных сайтов, сравните свой сайт с федеральными (если таки будут). При преимуществе в выдачи региональных проектов советую, конечно поддомены. Им легче присвоить регион и оптимизировать заголовки, тексты и контент для конкуренции с другими региональными сайтами

При преимуществе в выдачи "федеральных" проектов, скорее всего, геозависимость слабая (но может быть и просто слабая конкуренция в регионе или отсутствие региональных сайтов вашей тематики), и вам может быть совсем не обязательно создавать поддомены - это может быть трудозатратно.

3. Но может быть смешанный вариант.

У меня вот есть разные случаи в работе:

1. Федеральный проект, ранжирующийся по гз запросам в регионах и Москве - просто он очень большой и правильно оптимизированный под регионы без каталога и поддоменов.

2. Несколько проектов с более 50 поддоменнами, с около 100 поддоменами (международный), двумя поддоменами и т.д...для каждого региона.

3. Проект с 7 поддоменами, но ранжирующийся в 14 регионах - тот смешанный вариант.

Все чувствуют себя замечательно. Поэтому правильно анализируйте свою тематику.

Богоносец, вам не подскажу. Вы слишком плохо просите

Ingref:
А зачем? Смысл такого переезда? Если планируется реклама в оффлайне типа site.online, то логичней в обратную сторону редирект поставить.

Может человек хочет прокачать пулл запросов по точному вхождению в домен)

svv:
Периодически попадаются статьи, призывающие присмотреться к соседям по хостингу, просмотрев все сайты на одном IP и рекомендации иметь отдельный IP для сайта.

Как считаете, роль отдельного IP реальна или нет в ранжировании Яндекса и Гугла?

В теории - выделенный IP лучше. На практике сложно замерить это как фактор ранжировния, поэтому никогда не заморачивался. Если есть возможность - сделайте. Но не думайте, что это даст вам сильное преимещество. Просто теоретически обезопасит от вероятных нежелательных соседей

fisher_ak:
Всем добрый день.
Интернет магазин. Один товар может находиться в нескольких смежных категориях (2-4) и иметь УРЛ вида:
site.ru/catalog/razdel1/artikul
site.ru/catalog/razdel2/artikul
и т.д.

Таких товаров довольно много (до 20-30%) и их кол-во будет вероятно расти.
Хотим сделать вот такой УРЛ для всех товаров:
site.ru/tovar/artikul

C одной стороны, мы избавимся от всех дублей, "облегчим" сайт. Но с другой стороны, вхождение раздела в УРЛ не будет. Думаю что для покупателей это не критично: остаются "хлебные крошки" в карточке товара, показывающие путь. А вот как это с точки зрения ПС, фиг его знает. Некоторые СЕО "специалисты" говорят что за такое чуть ли не фильтр можно получить, типа из-за отсутствия структуры в глазах ПС (все товары будут лежать на одном уровне в одном месте)...

Кто сталкивался с такой структурой?

З.ы. варианты, которые рассматривались еще:
1. оставить такие УРЛ, но настроить canonical на "основной" раздел. При такой структуре товар в базе сайта дублируется по кол-ву смежных разделов. Это и сейчас так, м не очень удобно.
2. оставить один УРЛ с "основным разделом", а если клиент переходит из смежного, перебрасывать его на "основной" - не удобно для пользователя

Эти варианты мне кажутся более хреновыми...

Все правильно замыслили. Делайте.

yonen:
Открываешь инкогнито в хроме > переходишь на рамблер(да рамблер!) > пишешь запрос и смотришь чистую выдачу яндекса. Подтверждаю, что олимп на 19 позиции а ты дурилка и seoшник из тебя плохой иди кури мануал.



Судя по частотности, выгоднее семечками у метро торговать, чем этой фигней...

Про чистую выдачу яндекса, хочу вас поправить. Рамблер тоже пихает свои сайты из каталога в выдачу. Так что xml...

burunduk:
пагинация доступная для поиска вещь достаточно противоречивая, с многими проблемами, поэтому лучше придерживаться старого правила: если в группе больше NN элементов, то группу стоит разбить на более мелкие, в случае с товарами NN - это количество товаров на странице.
для общих групп, в которые входят много мелких и как следствие большое количество товаров, пагинацию стоит делать недоступной для пс, т.к. решение проблем с различными пользовательскими фильтрами будет намного дороже
лучше использовать переднастроенные фильтры (по цене, по цвету.... )

Если все сделать хорошо, то вещь очень даже полезная. Раньше закрывал пагинацию. Потом использовал каноникал на первую. Сейчас оптимизирую страницы пагиации и открываю для индексации

bc512:
Спасибо за комментарий!
На самом деле, все ссылки стояли на старый домен (.ru), на .net я почти ссылок не делал.
Я проверил только что, в яндекс-вебмастере сайт проиндексирован, в поисковой выдаче он есть.
Просто позиции сайта в выдаче стали сильно ниже тех, которые были до экспериментов с доменами.
Как можно вернуть прежние позиции?

За год текстовое ранжирование сильно изменилось, а так как вы потеряли все поведенческие и ваши старые материалы теперь не вылезают, то скорее всего у вас теперь нерелевантная текстовая оптимизация. В общем-то, можете начинать оптимизацию с начала: сбор запросов под написанную статью (можете подтянуть старые из метрики и пробить на частотность), составление заголовков, рерайт текстов, переиндексация, новые ссылки и т.д... больше не видя сайт и статистики посоветовать ничего не могу

Falcon_m:
sheba отпишитесь пожалуйста, когда стараниями бандита снова вылетите из топа с непереспамленным порталом по мебельной тематике.

Отписываюсь. Это было в начале 2015 года. Тогда бандита ещё не было. Дабы не быть голословным, нашёл тикет и статистику.

Вот статистика. В конце января 2015 сайт резко теряет трафик, большинство позиций улетают за ТОП 30. Остаются мелкие, низкочастотные:

А вот ответ Платонов:

Около месяца переписывали и выкладывали новые тексты на нескольких тысяч страниц. В итоге переспам сняли в конце февраля-начале марта:

Но до конца так и не восстановились.

Falcon_m:
Блин, ребята, ну неужели Вы всё ещё верите, что можно загубить или поднять сайт переспамом?
Это блин как надо переспамить?
Вон почитайте сайт Нижегородцева,- он там спамит так как Вам и не снилось в своих текстах, и ничего, блин, - белый сеошник.
Жирный текст не любит Яндекс? Тэги <strong>?, обилие H1? Проверьте хоть раз,- напишите лэндинг только из этих тэгов, по каким-нибудь низкочастоткам типа "купить крокодила в саратове дешево" и Вы сами все поймете. Ну или посмотрите дуэль Щукина с Нижегородцевым, посмотрите на их лэндинги. Да Платону можно верить,- Щукину, который с Нижегородцевым об заклад бился. А другому платону, что из Яндекса верить не только нельзя,- просто вредно. Ну и решите там для себя сеошники вы пацаны или Яндексоиды?

Переспамом загубить сайт можно. Все дело а том, что в разных тематиках, да регионах "переспам" считаетя по-разному.

Посмотрите тематику Такси в Москве: около 100 вхождений слов такси, заказать такси в текст на 600-700 слов - волне нормальная вещь.

И теперь попробуйте написать аналогичные тексты в тематике мебель. У меня вот крупный портал мебельный улетел за переспам, хотя там было далеко от такси. Убрал свой переспам, вернул позиции.

Поэтому, анализируем ТОП и будет вам профит

Всего: 122