У Гугла более двухсот факторов, которые он учитывает при ранжировании, айпи-адрес и физическое положение сервера (ну и домен, разумеется) играет не последнюю роль.
Я много работал с англоязычным Гуглом, там эта привязка чётче просматривается при продвижении, например, под .co.uk или США. Поэтому да, о сервере не стоит забывать.
В Украине пользуются Гуглом 70%, в России около 20% пользователей. В то же время, население Украины на порядок меньше, но потенциал трафика из Гугла в процентном соотношении может быть больше - смотря, какие у вас запросы.
Если речь идёт о поднятии позиций без смены сервера, то я бы поработал с внешними ссылками, старался бы набрать ссылочную массу с доменов .ru и .com (русскоязычные сайты). Других стопроцентных вариантов не вижу.
Гугл учитывает при ранжировании также физическое расположение хостинга. Если вам не важен украинский трафик, я бы перенёс сайт на сервер в РФ.
Какая цель сайта? Какой трафик нужен?
Возможно, изменилась конкуренция, либо сезонность запросов - вот и изменились источники и количество трафика. Чтобы понять, нужно ли что-то делать, надо знать к какой цели вы стремитесь и какие позиции хотите удержать.
site:narod.ru intext:"искомый текст"
Правильно. При хорошей работе по продвижению и оптимизации, у вас очень скоро будет фильтр 9-го места, а затем фильтр 7-го.
Сложней всего заработать фильтр 3-го, 2-го и 1-го мест.
«Сопли» это supplemental results — прокликиваете выдачу до ссылки «Чтобы показать наиболее значимые результаты, мы опустили некоторые, очень похожие на 547 уже показанных.
Если вы хотите, можно повторить поиск, включив опущенные результаты». Всё что под этой ссылкой — и есть «сопли».
У вас видимо точно не все дома. )
Смотрим ваш robots.txt:
User-agent: * Disallow: /
Это запрещает всем ботам индексировать что либо на вашем сайте.
☝ Хозяйке на заметку: если при запросе site:site.com в Гугле вылазит только урл(ы) без сниппетов, то нужно первым делом проверять содержимое файла robots.txt и теги <noindex>.
Не совсем. Если сайт имеет определённый статический вес, то выводить даже при полном изменении структуры будет легче.
Но если вы сделаете 301 редирект, то склейка пройдёт почти безболезненно. Не забудьте скормить Гуглу новую карту сайта и обеспечить чёткую внутреннюю перелинковку.
Старые ссылки я бы удалил.
Гугл любит чёткую структуру. Вам нужно впервую очередь:
- устранить технические проблемы, чтобы карточки отображались корректно;
- если карточки всё же дублируются, склеить их 301 редиректом или иным способом;
- сделать карту сайта в одном клике от главной и скормить карту сайта Гуглу;
- если у каждого субдомена своя категория товаров, то на главной странице основного домена (site.in.ua) по возможности сделать ссылки на каждый из субдоменом с основным ключевым словом и околоссылочным текстом;
- при желании, воспользоваться облаком тегов - метки очень хорошо подсказывают Гуглу, какая страница какому запросу релевантна, при том что запросов может быть много;
- добавить (если ещё не сделали) сайт в Google Webmaster Central.
Что-то мне подсказывает, что у вас адреса страниц вида site.in.ua/page.php?num=3445&id=jsdD3453hsd7&mode=on, вместо site.in.ua/goods/valenki. Это так? Если да, сделайте человекопонятные урлы (ЧПУ), это улучшит индексацию.
Если сайт плохо индексируется, возможно он под фильтром. Тогда имеет смысл устранить все недочёты и отправить заявку на переиндексацию.
Отсюда вопрос: Dolph, вы читали сообщения ТС?