Слава, всё, связанное с улучшением релевантности выдачи - чисто техническое. И зомби можно отсеять, да, проблемы нет, надо всего-то... знать как пользователь должен себя правильно вести.
Теперь вопрос: если мы точно знаем, как себя должен вести пользователь, то спрашивается, нужна ли нам его статистика?
Да при чём тут структуризация. Есть релевантная страничка, есть 70 других релевантных страничек. Они удовлетворяют всем нужным условиям, всё замечательно.
Но на первое место попадёт всего одна.
Как её выделить? Ну конечно же, на неё кликнут! Замечательно. Пришёл пользователь, потыкал, потом второй, третий - страница хорошая, потому что на неё кликают!
Ну и всё, зомби едят мозг поисковику.
Рамблер на этом прокололся года три назад, да и он был не первым таким умным.
Пендык программерам в теме FAQ по PHP :)
Знаете, когда солнце светило ярче чем сегодня, трава была по-настоящему зелёной, молодёжь уважала старших, горы были выше и апдейты были регулярны, так вот, тогда мордой звалась главная страница сайта, а не ссылка с неё.
И сейчас старики всё ещё иногда указывают на слегка устаревшее обозначение.
Ссылки с внутренних страниц как были эффективны, так и остались, может быть, слегка потеряв в эффективности, а вот значимость главных страниц в поиске сильно подросла. Такие вот дела...
Аааа, ну если ПО ОПРЕДЕЛЕНИЮ ниже, то тогда конечно даааа...😂
Зомби - не бот, он реальный пользователь сети. Алгоритм даст наивысшую степень релевантности на секунду? Ну и замечательно, это значит, что реальные ссылки будут чаще отсеиваться, а зомби это не важно, их мноооого.
Вот зомби и будет останавливаться на нужной ссылке. А за ним пойдёт другой зомби, третий... Столько, сколько нужно. Вы что, зомбятники из нескольких десятков тысяч машин не видели?
А что, мне нравится. Постарайтесь пожалуйста поскорее обогнать Гугл, а уж накрутка предпочтений пользователей с меня. А то все эти ссылки уже задолбали, тут-то проще будет - что юзер нашёл, то и правильно, а был ли это правда юзер, или мой хитрый зомби...
Дело не в гигабайтах.
Для хранения больших массивов есть другие хостинги, для обычного сайта и 100мб - огромный объём. А вот сколько дадут отожрать от сервера процессорного времени?
В этой теме я насчитал вроде как несколько вполне нормальных репортов и всего троих ноющих: двое ноют о сайтах, один о том, что все вокруг ноют. Правда этот последний ноет так в каждой теме про ап алгоритма, так что тут уж ничего не поделаешь.
А что можно поделать - это и правда указать на проблемы выдачи, одна корректировка, слегка уменьшившая разрыв между мордами и внутренними, уже произведена - так что не так оно и тщетно.