Посмотрите код динамических сайтов.
Если задача чтобы просто проиндексировались все страницы сделайте sitemap.
Хотите чтобы было хорошо делайте все максимально просто для роботов.
Там где стоят обработчики поставь еще ссылки.
Пользователь будет ходить по обработчикам а робот по ссылкам
Наверно подгружаются аяксом. У страниц с товарами есть свои url?
Уже давно вк поменяла формулу ранжирования. Точной формулы нет, но кроме количества участников учитывается активность пользователей.
ПС точно не понравиться ваш пустой сайт с таким количеством дублей. Даже если запустите такой сайт не открывайте все для индексации. Напишите скрипт который будет запрещать роботам индексировать категории в которых нет объявлений. Так робот не увидит 450 сто процентных дублей. В будущем когда появятся объявления в категориях страницы станут доступны для индексирования и будет хоть какая-то уникальность.
Прочтите про прямые ссылки и ссылки через редирект. Если вы получаете посетителей по этой ссылке значит польза есть.
Позиции скачут вот и разница в трафике. Даже если по вашим запросам приходило в оба ПС одинаковое количество человек как вы себе предстовляете иметь одинаковые позиции по всем своим запросам
ПС 20 лет не могут придумать такой алгоритм. Это значит что задача не из простых.
Ссылки на страницы или аяксом подтягивать
Зачастую это плодит много дублей. Можно просто закрыть от индексации.
Какая цель? Я так понял что магазины ваши. Если да то скорее всего разной тематики, зачем тогда этот поиск?
Если есть доступ к бд можно построить общий индекс и делать по нему поиск.