S.E.R.

S.E.R.
Рейтинг
146
Регистрация
17.08.2008

Попробуйте NetPeak Spider. Только в настройках предварительно выставите - Не сканировать disallow (чтобы исключить мусорные страницы, которые у вас закрыты в robots).

А что мешает поставить маску и перед str?
http://yandex.ru/search/?text=domain%3A*str*&lr=2

У меня почему-то так уже не срабатывает. Ищет просто по фразе, без использования оператора.

А есть мануал где все возможные операторы описаны?

http://help.yandex.ru/search/query-language/search-operators.xml

Можно вот так:

http://yandex.ru/search/?text=domain%3Astr*&lr=213

Правда в данном случае, покажет только те домены, которые начинаются с "str".

Ещё можно использовать inurl, но тогда поиск будет идти не по доменам, а в целом по URL-ам.

Оба этих вариантов мне известны и показывают цену ТОВАРА, а в указанном примере минимальная цена за товар в категории!

Вам уже всё верно объяснили. Делается через YML-файл.

Только Яндекс ведь не понимает исходя из него, указали вы цену для товара или для категории. Можно прописать любой URL, для него и будет отображаться цена.

Условно:

<offer id="1" available="true">

<url>http://www.qpstol.ru/category-gostinaya/stoly-knizhki/</url>

<price>2030</price>

<currencyId>RUB</currencyId>

<categoryId>1</categoryId>

<picture>...</picture>

<name>Столы-книжки</name>

<description>В нашем каталоге представлены деревянные, раскладные, прямоугольные и другие столы-книжки различных цветов.</description>

</offer>

Вот и цена для категории :)

Изменения есть, но не во всех тематиках.

Где-то - полный расколбас, а на части сайтов +- 1 запрос (как бывает и в обычные дни).

Shing:
Если ПС знает, что ссылка не натуральная, зачем ему дополнительный инструмент? Почему бы просто ее не учитывать? Зачем снимать ее учет руками вебмастера?

Потому что цель иная. И потому что определить они точно натуральность ссылки не могут.
Поэтому если вы не убрали ссылку из Disavow links это ведь тоже должно являться сигналом, что вебмастер называет эту ссылку натуральной. Верно? Также как в случае, если он ее называет не натуральной.

Ну это в случае если мы верим в мощь алгоритмов, отрицаем рандом и огромную погрешность алгоритма. То есть получается такая "несправедливая" машина с огромной погрешностью, генератор случайных чисел практически.

Вот это хороший вопрос. На мой взгляд тоже, было бы намного логичнее просто не учитывать такие ссылки. Но Яндекс пошёл по дорожке пессимизации...

Disavow links скорее указывает не на то что ссылки натуральные или нет. А но то, что владелец сайта как бы отказывается от них (например, если они были заведомо установлены конкурентами).

Если Яндекс решил скопировать опыт Пингвина в плане пессимизации за плохие ссылки, то следует и сделать аналог инструмента Disavow links. А то я совсем не понимаю, как они собираются бороться с возможным завалом конкурентов :)

P.S. Письма от Яндекса не приходили. Может кто-нибудь скинет пример сайта, по которому пришло предупреждение? (можно в личку)

У Викимарта никаких проблем нет, все товары разбросаны по поддоменам, которые прекрасно индексируются.

А с основным доменом всегда такая ситуация была:

https://yadi.sk/i/pfyP_P0ufcohE

Так что ничего принципиально не поменялось :)

Дам старт.

Событие исключено, запрос не зависим ни по гео ни по сезонности.

Так не обязательно ведь событие связано с гео или с сезонностью.

Например, показали по телевизору сюжет связанный с вашим запросом (допустим - "обзор умных браслетов") и все сразу принялись их искать :)

Всего: 432