А почему бы не использовать алгоритмы кластеризации из машинного обучения, используя в формуле метрики несколько разных параметров: семантическое сходство (doc2vec, к примеру), сходство топа, классы запроса (коммерческость, геозависимость и т.д.)?
По мне так существующие решения онлайн кластеризации хреновы еще и тем, что дробят на группы, но они перемешаны (проблема полностью не решается). Можно еще как минимум выстроить иерархию групп (чтобы похожие кластеры находились рядом).
Не давайте вредных советов.
Пагинацию не стоит закрывать через canonical:
Оптимальный вариант - next/prev
Или добавляйте на страницах пагинации метатег, запрещающий индексирование контента:
<meta name="robots" content="noindex, follow" />
Сортировку как раз лучше через robots закрывать, чтобы не тратить лимит трафика ПС сайта (чтобы прочитать canonical - роботу нужно скачать страницу, если страница закрыта через robots - трафик не расходуется.
canonical - непонятно зачем нужная вещь, соглашусь с бурундуком.
Я вот не понимаю - почему бы не ввести подобную функциональность через HTTP-заголовки - ПС сами себе лишнюю нагрузку на серваки создают - ведь чтобы увидеть каноникал на странице нужно скачать ее (а это трафик + пожирание ресурсов серверов), в случае с HTTP-хедерами качать не придется - экономия трафика.
http://www.ludkiewicz.ru/2016/05/blog-post_27.html
/ru/articles/24456
С чего вы взяли что я хочу бесплатно?
Я же привел в пример модель xmlproxy - реселлинг
Я думаю, что не один готов в розницу оплачивать запросы к api таких сервисов, как Ahrefs.
Все-таки, 500$ в месяц - перебор, а вот в розницу - другое дело
про беклинк за копейку я в курсе.
Но там нет API :(
Есть в RDS API такие параметры, но они сейчас не работают:(
Не, ну можно на аяксе. Но это уже со стороны юзабилити
С точки зрения SEO - календари это та же пагинация, в индексе не нужны
если страницы с контентом уже ранжируются, смотрите, по каким запросам переходы на страницу через вебмастера. Или через Spywords/Prodvigator/Advodka
судя по точности данных - рандомно
seocillin.ru