Региональность для Яндекса зависит от парсящих скриптов (можно обойтись настройками региона, независимо от географии ip).
А вообще я имею ввиду любые массовые запросы к ПС: поиск по операторам, вордстат, проверка тИЦ/PR, регистрация аккаунтов в персональных сервисах и пр.
Я - о парсинге поисковых систем. Здесь количество подсетей действительно критично (но не по соседству диапазонов, а по хуизам).
Под парсинг? В пиковых нагрузках не хватает и 5000, приходится в разы увеличивать емкость пулов.
А сколько Вы делает запросов в сутки?
Парсилки? У Вас объемы, видимо, небольшие.
А зачем их просчитывать? Чтобы узнать, идёт ли солнечное затмение, не нужно просчитывать недели и века со времён египетских пирамид - достаточно просто выглянуть в окно. Так и тысячи факторов не нужно искать через реверс-инжиниринг - они все на поверхности (технические параметры хостинга, да внутренние и внешние сео-условия, производные от текста и гиперссылок).
Дык, тут ведь физически не изобретёшь что-то новое (и тем более, не поставишь на первое по важности место). Что там может быть этакого? Задержки трассировки станут важней анкор-листа? Наличие favicon компенсирует отсутствие сайта в ЯК? Аптайм приравняют к h1?
Это ведь несерьёзно.
Да уж.
Мне кажется маловероятным, что, руководствуясь оценками асессоров, новая формула теперь будет ставить в топ сайты с ровно 17.534 символами на главной - по кондиционерам, имеющими 3 картинки с преобладание зелёной гаммы - по лицензированию экологической деятельности, и исключительно страницы восьмого и дальше уровня вложенности - по печатям и штампам.
В этом, разумеется, есть определённый элемент новизны, но уж больно он получается... посконно-сермяжный.
А за счёт чего?
Какой из нескольких тысяч факторов (которые, опять же, так или иначе учитывались оптимизаторами, ведь правильно?) после обучения вдруг вытеснит типичные факторы прежних релизов, навроде количества точных вхождений в тексте документа сайта-акцептора, или примерно одинаково понимаемой "жирности" ссылки с донора?
Допустим, в обучаемых парах "запрос-документ" оценщики отдавали предпочтение страницам, перегруженным тегами заголовков и километровым мета-дескрипшн - что, в итоге обученная формула будет ставить схожие ресурсы выше остальных в выдаче?
Или они на что-то другое равняются? Не на время же загрузки страницы, в самом деле...
А в чем пострадал сайт Минтранса? Поискового трафика с Яндекса стало меньше?
Лучше чего?
Трудности дисциплинируют, и в итоге молодые вырастают не бездумными прожигательями жизни, выросшими на мнимых "удовольствиях" и мнимом же "развити личности", а опытными и рассудительными людьми, у которых (по сравнению с "дозревающими") к зрелому возрасту будет опора в жизни (не говоря о том, что воспитание ребёнка - есть процесс сам по себе содержащий и массу радостей, и массу точек для развития).
А осознание совершённого убийства, в угоду праздным наслаждениям - конечно, тоже весьма значительное событие в жизни. Вот только ничего приятного в нём нет.
Причём чем дальше - тем больше.
В принципе, можно предположить, что на части комм. выдачи изначальная выборка сайтов для оценки была специально отобрана из некоммерческого массива (например, ссылочные доноры для них не участвуют в биржах).
Тогда, соответственно, в итоговой формуле оценки релевантности большой вес приобрели не типичные сео-факторы.
Или могли банально накрутку спайлоговского счётчика тестить.