Для реализации такой схемы нужно, чтобы страница рендерилась с отключенными скриптами для бота, а для пользователя с включенными скриптами работала ajax подгрузка? Или я не совсем понимаю как тогда вся эта система будет определять где бот, а где человек?
Не скажу насчет мифическое оно или нет, но присутствует т.к. пользователь начинает ходить по страницам и затем останавливается на какой-то из них, чтобы перейти на статью или товар. В случае подгрузки, пользователь не покидает текущую страницу и все ПФ на ней суммируются (время, действия и т.д.).
И конечно нагрузка на бота уменьшается, когда сайт очень большой (К примеру, тот же авито выдает максимум 100 страниц в пагинации). И если таких фильтров или категорий будет дофига и в каждой будут еще десятки или сотни страниц пагинации, то это уже серьезно усложнит всю индексацию. Что с этим делать?---------- Добавлено 01.12.2017 в 18:28 ----------
Если он переходит на другую страницу, то это для бота тоже самое, что и пагинация - это только для человека выглядит все визуально по другому. Меня больше интересует индексация ботом.
В смысле одно и тоже? Нет, я именно про подгрузку аяксом.
По реализации, размер страниц так или иначе нужно лимитировать, иначе страница будет много весить... это если вы имели ввиду загружать весь контент, чтобы бот его схавал, а юзеру показывать только часть, которая расхлопывается по кнопке или еще как-то. Так у ответов мейла сделано: https://otvet.mail.ru/question/204520092 т.е. в индекс там только первые 20 комментов уходят, остальные не индексируются ботом.
1-30,последняя - как уже писал выше, толку это особого не даст т.к. страницы пагинации не собирают трафик с ПС.
По 40 не могу т.к. на мобиле будет долго грузиться
Ммм... кстати идея, спасибо!
p.s. только трафика это не даст, только ради перелинковки если, как архив и возникает другой вопрос: "откуда тогда брать ссылки на профиль т.к. сейчас они с имени автора как раз стоят?"
Самописный, года с 2008 сайт писали на ajax, вот теперь расхлебываю эту кучу хлама 🍿
Дык, продумывали, но не под SEO 🤪 - когда трафик начал падать, то подключили SEO ☝
Ну, почти 1,2,3, следующая и последняя
p.s. Но, вопрос-то не в этом, пусть там даже не 200, а 50 лвл будет - такая линковка ни трафика ни веса не даст конечным материалам.
не 500, а 500к страничном!))
Страницы выводятся через пагинацию по 20шт на странице. т.е. 200 лвл - это всего 4000 статей в одном разделе.
Неужели никто подсказать не может?
Проблема в том, что сейчас контент выводится через пагинацию и получается бешеная вложенность 200-й, 300-й уровень в зависимости от раздела. Я хотел через карту сайта его сократить до 3-4 уровня, путем перелинковки. Но раз Вы говорите, что это не вариант, то будем думать.
Вы меня не так поняли. Основная цель - это прокачка сайта по SEO. Мне не страницы сайта нужно загнать в индекс, а страницы карты сайта. XML у меня есть, но в плане перелинковки она ничего не дает.
В справке Яндекса открытым текстом написано:
https://yandex.ru/support/webmaster/robot-workings/helping-robot.html
Ну, да, вышло их 100к, а что делать? я же не могу по миллиону ссылок на одну страницу запихнуть
соц. сеть, порядка 10млн страниц, ссылки на них даже при желании не закупишь, да и бюджета на них нет.---------- Добавлено 21.11.2017 в 22:35 ----------
"Без позиций нет трафика, без трафика нет конверсий, без конверсий нет лидов... так что первично позиции или лиды?"
Артур Латыпов---------- Добавлено 21.11.2017 в 22:43 ----------
Google еще с 2015 года грозится его внедрить, но реальная ситуация такова, что десктопная версия сайта более избыточна т.е. в ней больше информации (контента, ссылок, меню и прочего функционала) поэтому его внедрение переносится из года в год.---------- Добавлено 21.11.2017 в 22:47 ----------
Ой, вообще не говорите, мы адаптив делаем пол года уже... и без проработки под SEO, а если они будут адаптивную версию как основную ранжировать, то там беда будет.... :(