Ну, почему же, приятно вспомнить, рассказать как было у себя, послушать как было у других..
Прогончики - да, активно практиковались. Соб-но, я с этого и начинал, когда только заступил на должность в августе 2007-го.
Allsubmitter был в почётном правом углу на рабочем столе :) А также ссылочные и статейные обмены.
Так говорили.. несколько вкладок назад. Но можно и продолжить :)
Для меня вопрос был не в принципе, для меня был вопрос в изыскании внутренних резервов, а их было полно, потому что город окучивался стайкой из десятка менеджеров, которые активно продавали даже не сайты, а тарифы. Все это было подвязано на местном региональном электронном СМИ и в пакет рекламных услуг входило создание сайтов-визиток с бесплатным хостингом (сервак стоял в соседней комнате в шкафу) :)
Наплыв был большой, сайтов было больше сотни, решение использовать эти активы было вполне логичным. Я даже дизайнеров и программеров не дергал своими затеями. Я использовал статейный движок ArticleMS и встраивал его в статичную верстку. Так я начал активно изучать дисциплины отличные от SEO. Фактически весь клиентский актив сайтов студии был для меня подведомственной сеткой :)
Поэтому вывести любой запрос в своём регионе - даже "недвижку" и "окна" был для меня вопросом 1-2 трудодней под бодренькие гитарные пассажи Чака Шульдинера :) Потом конечно стало сложнее, пришлось подключать в работу ссылочные и статейные биржи.
ОписАлся, конечно это было до 2010 года. В период когда я работал в штате. Уже 11 лет назад.
Это не было полноценным ведением, как сейчас. Это был набор работ за 1-2 дня, эффект которых держался годами :)
Ну разве что пару раз в месяц в редакторском отделе писалось по статье для обновления и доп. перелинковки до нужным запросам (и то для сайтов-визиток, которые вообще не обновлялись).
Иногда доходило до абсурдного. На сайте своих 1-2 страницы, а рекламных материалов - десятки. Вот вам и контентное обновление :)
Проще. Базовая оптимизация, проставление ссылок в своей личной сетке + на клиентских сайтах по согласованию создавались разделы с рекламными статьями, где одни клиентские сайты продвигали другие клиентские сайты, поэтому на региональное продвижение ни копейки не тратились :) Сапа использовалась для продвижения столичных сайтов.
Базово на всю работу уходило 1-2 дня. Через 2-3 недели после индексации всех активов был эффект, к концу месяца собирались сливки, писали отчёты и отправлялись в CRM для передачи менеджеру, который выставлял счёт клиенту. Всё, больше не делалось ничего, потому что этого было достаточно для удержания в малоконкурентном топе. Схема довольно уверенно работала для регионального топа.
Доходило до такого, что даже по одной тематике было 5-7 клиентов и приходилось конкурировать "с самим собой" :)
Сейчас конечно это схема работать не будет, да и 15-20 с полным погружением по всему спектру работ - явно перебор.
Да :) Было время :)
15-ать многовато. Года эдак до 2010 еще можно было залезть в топ фактом нормального сделанного сайтов, ключевой плотностью, перелинковкой и небольшим кол-вом ссылок. В регионах уж точно.
Говорю об это ответственно, как лицо сопровождающее до 80-ти клиентских сайтов :)
Причин может быть множество, начиная с проблем конкретной страницы (в недостаточной релеватности и эпизодичных ПФ), заканчивая причудами самого Яндекса.
Слишком мало данных для того, чтобы точнее определять рабочие прогнозы. Важны: возраст страницы, ранжирование за короткий и за длинный период, тематика (коммерческая/информационная), посещаемость страницы, средние Метрики поведенческих и т.д.
То, что страницы ранжируются то так, то эдак - характерно для большинства страниц, но рабочие закономерности нужно определять в контексте рабочих данных. А так всё очень приблизительно и неконкретно.
Без предметного анализа страницы внятную рекомендацию вы всё равно не получите.
Я прошу вас привести конкретные примеры как (по вашему же заявлению) из нескольких предложений сделать уникальные товарные страницы на 10K единиц, а вы мне называете раcкрученный бренд международного уровня, который приводить в сравнение с обычными местечковыми товарными сайта просто некорректно. Ежу понятно, что на Алиэкспрессе никто ничего не уникализирует, там этот вопрос вообще не стоит, там востребованность у сайта такая, что большинство мелкого и среднего бизнеса к подобным показателям не приблизятся от слова совсем.
Продемонстрируйте пожалуйста свою изюминку, чтобы мы понимали о чём речь.
Краулинговый бюджет - это не то, сколько физически Гугл может обработать адресов на сайте, краулинговый бюджет - это то, какую квоту определит поисковик для планового переобхода. Если рейтинг (траст) у сайта низкий, то поисковик это будет делать крайне вяло, не потому что не может быстрее и больше, а потому что для него не будет такой задачи - оперативно индексировать материалы сайта если они МПК/НКС.
Задача TC - избавиться от довеска огромного кол-ва неуникальных страниц, раскачать траст, прокачать целевые товарные группы и товары.
Если бы у TC были критические проблемы с откликом, то рабочие обстоятельства были совсем другие.
Тем более, что со слов TC у него уже был опыт с большими сайтами, так что проверить отклик и замерить скорость загрузки страниц он бы всяко догадался.
Тогда пожалуйста разверните более доходчиво свою мысль и лучше на живых примерах, чтобы стало понятно, каким образом вы предлагаете программно уникализировать тысячи страниц с помощью 3-5 предложений.
Для внедрения заголовков доп. тем в контекст переписки.