Не следует рассматривать что-то отдельно.
Уже приходили мысли:
генерить ещё кучу страниц без оптимизаторщины (эта ушла обратно);
добавлять в линковку и т.п. слова сорняки, удаляя их средствами клиента.
? Какой объём обучающего текста и какой длины цепочки делать для минимизации признаков сгенерированности?
Банит не текст и даже не сайт, а домен.
Почему на некоторых фрихах в Гугле лямы страниц в индексе, а в Яндексе 0 или сотня?
Тицу мало.
http://cdn.joxi.ru/uploads/prod/2013/12/12/37a/355/ed44ac0d34d6e81debdae1f0af48123137d6462f.jpg
Наберите запрос =новости= =птица=
Кто-то тратит деньги и на них. Но наверное гораздо меньше, чем по запросу =инструкция пылесос wr256 замена фильтра=
А теперь попробуйте определить запросы, которые информационные.
Но великому Яндексу важнее не они, а те, по которым именно тратятся деньги.
Почему сеошники вообще не задаются вопросами типа: Какие именно доры/МФА надо делать, чтобы Яндекс был доволен выдачей?.. хотя и ругался бы на них — чисто для отмазывания имиджа.
Значит пора оценивать желтизну пиара святаго Яндекса. Начиная с:
Без исследований понятно, что уменьшается доля устройств, бывших самыми популярными / единственно возможными лет 10 назад. Так зачем же делать фиксированный кирпич под то, чего завтра станет ещё меньше?
А может они же (как бы совершенно случайно) были со списком запросов в тайтлах, ашодынах и перелинковке?
А пока пора подводить промежуточные итоги предыдущего сеанса. Заголовки новостей были громкими:
Нет.
К концу января все всё забудут. А в марте кто-нибудь из Яндекса опять скажет что-нибудь умопомрачительное... конечно же на запланированном сеансе пиара. Сколько уже было таких итераций.
Важнее — сколько по времени занимает процесс в реальной сети:
когда начинается и заканчивается отображение документа браузером... вот об этом пиарщики модных технологиев предусмотрительно забывают. Да и вообще, им не интересно думать о процессе... который большинству пользователей не даёт начать чтение например.
Быстро — можно. А быстрее статики вряд ли.
Тут однажды попробовал предложить кому-то ... чтобы при первой загрузке мегаскрипты только попадали в кэш (но от них не зависело отображение первой просмотренной страницы), а применялись бы только на последующих... что-то не верится, что он так сделал.
А вам, судя по первому посту, хоть как-то понятна тупая/экономичная деятельность искалок. Ну вот и надо делать для них... совсем не обязательно с их#!выдумками (и не забивать голову рейнгом, которого нет).
Это форум о поисковых системах // вот такой контекст.
И большинство любителей условного AJAX... делает так, что при переходе со страницы поиска — первая загрузка оказывается дольше, чем у ненавистников веяний моды. Ну тут конечно начинаются доводы про мизерное время при не#перезагрузке условных страниц, но пользователи ПС не много этих последующих страниц посещают.
Или покажите подопытного с малым временем первой загрузки ... в этой медленной сети.