Почему бред? Потому что на парочке твоих примеров это не подтвердилось? Ну и варите дальше кашу в стиле "не влияет, сам видел / влияет, у меня кириллица 2 месяца не индексировалась".
Или ты лично просмотрел все факторы и комбинации факторов ранжирования в поиске Яндексе (более 800), чтобы утверждать это?
Что касается индексации - для Яндекса в приоритете Рунет (1), url-адреса краулятся с учетом приоритета(2). Ты уверен, что и в этом алгоритме не учитывается доменная зона?
Бездоказательное утверждение.
По поводу индексации: для Яндекса в приоритете рунет, возможно доменная зона один факторов для ранжирования списка краулера.
Только это старая версия :)
Если на мой сайт зайдет ассесор, поставит ему оценку релевантный + по запросу, то я попаду в топ?
Не будет изменения формулы ранжирования -> встряски топа (ассесоры ведь для этого оценивают сайты - подать данные на вход обучающего алгоритма?), а просто, в следующий апдейт я в топ-10? Так, никаких противоречий?
И, по этой же логике, анализируя историю топов, например здесь, мы должны наблюдать периодически влёты в топ из захолустья? Часто видите?
Отзывы есть, в том числе мой. Ничего, из того, что мешало мне работать не решено (писал еще в мае). Сборщик, при всем его богатом функционале, так и остается пока дополнительным решением для меня. Уже смирился с невозможностью приоритезации сбора проектов, отсутствием наглядности в интерфейсе, отсутствием информирования о ошибках. Если у Вас возникнет задача срочно собрать позиции для 1го сайта, то будьте добры все остальные тащить в неактивные.
Понятно, что косяки бывают и цель Яндекса полировать кнопку "бабло".
Но непонятно то, что некоторые участники форума не только не понимают последствий подобных косяков, но и предлагают просто забить.
При этом ПС всё сильнее прессует сео, позиционируя это как "обман поисковой системы", хотя сама не отвечает ни за качество своей выдачи, ни за соответствие между результатами ранжированием и их же видением качественных сайтов отраженном в хелпах.---------- Добавлено 11.07.2014 в 17:39 ----------
Покажите скрин выдачи с 10 результатами при наличии в серп карты.
Добавьте возможность принудительного обновления позиций (при нажатии "обновить позиции" в проекте), когда параметр "gathering_positions" =0.
Это отчасти решит проблему с первоначальным сбором приоритетных проектов.
Насчет хостинга подумаю.
По поводу лимитов - на мой взгляд, именно через xml можно получить наиболее адекватные позиции.
Ну если тема пятничная, то вопрос действительно непростой. 😂
Вы наверняка замечали, что порой в серпе одна страница, а при поиске по сайту другая (возможно при использовании подобных операторов работает иная формула, либо запрос колдуется по-другому).
Давайте посчитаем:
в 9 утра я могу использовать 10% от дозволенного количества лимитов в час. Суммарно, все мои проекты требуют ~ 7-8к лимитов. Т.е. чтобы собрать всё за один час, мне необходимо иметь ~ 70-80к лимитов.
Все проекты в сумме и дают примерно 7к лимитов (ведь есть молодые проекты с большой семантикой и практически "обезлимиченные" Яндексом).
При стоимости ~ 500 рублей за 5к лимитов, для закупки дополнительно 70к лимитов мне необходимо ежемесячно тратить 7 тысяч рублей на лимиты. Причем, после использования реально необходимого мне количества в 7к запросов, оставшиеся 90% будут лежать мёртвым грузом - эффективная трата средств, не правда ли?
Не забываем про хостинг (сейчас он обходится порядка 1.5 к в месяц), антигейт, прокси. Занимательная математика получается. Может я где-то ошибаюсь?
Вот пример:
Индикатор крутился-вертелся, лимиты есть, но позиции не собираются. Вот и думай, в пятницу вечером кого напрягать этим вопросом.
Я не администратор, и каждый раз обращаться к вебмастеру меня не радует. А без этого никак.