Cheshirski-Cat

Рейтинг
80
Регистрация
31.03.2012
strannik2 :

Всех приветствую и благодарю что не прошли мимо.

Ситуация следующая: Интерент-магазин на битриксе. Яндекс очень много находит страниц с знаком ?   Пример: /?year   /?section  и.т.д.
Я устал их закрывать. Решил закрыть все страницы с этим знаком директивой Disallow: /*?*
Но страницы навигации "пагинация" тоже содержит этот знак вопрос: /komody/?PAGEN_1=2
Как только я не пытался прописать в директиве Allow: 
Allow:  / * ?PAGEN_1= *
Allow:  / ?PAGEN * 
и.т.д.
не помогает, страницы навигации исключены из индекса. Проверяю сервисом. 
Может кто то сталкивался с подобной проблемой и знает как правильно нужно прописать, чтобы стрницы пагинации индексировались, а все остальные страницы со знаком ?  не индексировались. Подскажите пожалуйста.

...

Disallow : /*?

Allow: /*?PAGEN


В вашем примере есть пробелы, возможно причина в этом. В любом случае всегда можно протестировать https://webmaster.yandex.ru/tools/robotstxt/ перед публикацией файла.

На сайте рапиды появилась ссылка на ФАК по данной ситуации https://online.rapida.ru/faq.
ultraplus #:

не такие - со слайдером картинок. Не могу сейчас найти пример даже

Выше про экскаваторы писали - https://yandex.ru/search/?text=%D0%B0%D1%80%D0%B5%D0%BD%D0%B4%D0%B0+%D1%8D%D0%BA%D1%81%D0%BA%D0%B0%D0%B2%D0%B0%D1%82%D0%BE%D1%80%D0%B0+%D0%BC%D0%BE%D1%81%D0%BA%D0%B2%D0%B0


ultraplus #:
Ребят  - ну что яндекс отключил всем расширенный сниппет в поиске?  вторую неделю уже ни укого не наблюдаю...

Да вроде встречается http://joxi.ru/EA4dZDMHvVEV5A

Пожалуйста, перед тем как уличить кого-то в пиаре, постарайтесь подойти внимательно к вопросу. В вашем примере указан другой домен. По данному запросу страниц в выдаче НОЛЬ.

думаю:
привет CeоПyльт и его UpToLike? )

Да, нашел такую возможность для некоторых бирж ссылок в Seopult. Спасибо.

На нескольких сайтах наблюдаю 21 и 22 мая высокую активность ботов спутника. Соглашусь,что надо ждать, по крайней мере пока нет инструментов для вебмастеров и результатов экспериментов энтузиастов.

Предположу, что у Вас есть источник страниц дублей на сайте. Ищите дубли, устраняйте неЧПУ адресацию и настраивайте редиректы или более простой способ - закрывайте дубли в роботсе =).

К уже озвученным 2 причинам (историческая традиция и анализ выдачи/переходов) хотел бы добавить фактор подсознательного управления. Если пользователь не найдет что-то в Яндексе, потом откроет новую вкладку с google и найдет это там, подсознательно он получит опыт, что в яндексе этого не нашел, а в google нашел и в дальнейшем он может перейти в этот поисковик. А если он перейдет на выдачу google прямо из яндекса, то вероятность дальнейшего ухода нет, т.к. переключения между выдачами в голове не откладывается. P.S. не претендую на раскрытие теории заговора, это мое мнение, возможно ошибочное :)

Ну вот хорошая тема годичной давности /ru/forum/752016. Если порыть раздел, можно найти и более старые обсуждения сабжа.

---------- Добавлено 16.12.2013 в 12:48 ----------

seo_optimist:
Штаны тут ни при чем, у Гугла куда больше данных о Вас )
Нет ничего нереального! Я бы сказал даже элементарно! Другое дело что вы не знаете как это делается )
Гугл имея точку актуальности просчитанную хотя бы раз в месяц может исходя из нее создать две таблицы, одна из которых будет коррегирующей по отношению ко второй части суток и строить ее ежедневно, мощности позволяют.
Гугл всегда знает сколько трафа он отдал сайту, а так же он знает сколько по расчетам без квоты сайт должен получить трафа, а так же Гугл может элементарно прогнозировать траф с других источников, и даже сепарировать его на поисковый, прямой, социальный, даже не используя аналитикс, потому как у Гугла есть два других отличных инструмента - хром и кнопка +1 на большей части инета. Делать он может это в реальном времени. Кроме того у Гугла есть весьма четкие сведения, включая прогнозируемые, учитывая сезонность каков ежедневный суммарный траф на каждый запрос, считать это Гугл может раз в месяц, в неделю.
Так вот, располагая всеми этими данными можно выстроить вторую таблицу ранжирования используя данные ранжирования из первой таблицы, относительно каждого запроса, для каждого сайта, и отколлерировать используя прогнозируемые значения в качестве коефициента таким образом, что бы суммарный прогнозируемый траф относительно запроса для каждого сайта был равен прогнозируемому суммарному запросу. (Пересчет даже для огромнейшей пачки сайтов почти мгновенный.) Далее все просто. Как только сайт выбирает половину своей ежедневной квоты - для этого сайта включается коррегирующая таблица, и если тенденция сохраняется, например неделю, то сайт попадает на стол ассесору, который либо разрешает траф, и квота для сайта пересчитывается и позиции идут вверх, либо подтверждает квоту, и крути дальше сколько хояешь.
О том что Гугл это умеет делать вы можете наблюдать в панели вебмастера, там кроме всех графиков, бывают еще сообщения "у вас сильный прирост трафа" "у вас падение трафа"...

Все это замечательно, но исходя из ваших рассуждений, выдача строится исходя из того, сколько дали каждому сайту квоты, а не из факторов ранжирования. Извините, но даже предполажив возможность обработки таких объемов данных поисковиком, говорить о релевантной выдачи исходя из правила "ему нужнее" не представляется возможным =)

Всего: 57