Имитация поведения пользователей прямая дорого к санкциям на пол годика в лучшем случае )
Залог успешного продвижения в Гугле как и везде в принципе.
1. Качественная техническая реализация сайта, Гугл этому уделяет большое внимание, особенно адаптивной верстке.
2. Хорошая внутренняя оптимизация, перелинковка и все такое.
3. Качественный уникальный контент, Гугл предпочитает тексты по жирнее.
4. Хорошая ссылочная масса с качественных доноров, Гугл кстати этому уделяет большее внимание, чем Яндекс.
5. Ну и разумеется возраст сайта.
По поводу вечных ссылок без покупки. Пишите качественный контент, которого нет в сети, авторский так сказать и будет вам счастье.
1. Как вам написали выше, в идеале сделать подкатегорию дополнительную, чтобы было так:
фильтры для воды/фильтры [имя бренда]/категория.
2. Если первый вариант уж совсем невозможно сделать, то можно пойти более сложным путем - реализовать ЧПУ в фильтре товаров. Пример: http://www[точка]rightbag.ru/zhenskie-sumki-kozhanyye/krasnyie-fiato_dream
3. Если это все слишком сложно или невозможно сделать и вам нужны только страницы брендов, то можно сделать ЧПУ только для данной категории товаров в фильтре и добавить эти страницы в карту сайта.
Но лучше всего первый вариант )
Так собственно ради них мы здесь и собрались и разговор идет о том, как лучше как раз для этих самых поисковиков )
Это как же так? А как же вы в роботс.тхт закрываете от индексации определенные категории сайта?
https://yandex.ru/support/webmaster/site-indexing/site-structure.xml
"Структура сайта показывает распределение страниц сайта, загруженных роботом, по директориям и скриптам. Она отображает только разделы, которые содержат более 10 страниц и составляют более 1% от общего числа страниц, загруженных в базу Поиска.
Убедитесь, что робот загружает именно те разделы сайта, которые вы считаете интересными для своих пользователей. Запретить загрузку страниц из определенных разделов сайта можно с помощью файла robots.txt."
URL помогает поисковым роботам судить о вложенности страницы и её «отношению» к тому или иному разделу каталога. Это подтверждает Яндекс.Вебмастер, раздел "структура сайта" в котором отображается структура сайта, которую робот может понять только по структуре вложенности URL, иначе все страницы будут отнесены к главной.
Ссылка: https://support.google.com/webmasters/answer/76329?hl=ru
"Структура URL сайта должна быть предельно простой. Попробуйте организовать контент так, чтобы URL имели логическую структуру и были понятны для человека (по возможности используйте слова, а не идентификаторы, состоящие из множества цифр). Например, при поиске информации об авиации URL типа http://ru.wikipedia.org/wiki/aviacia поможет оценить релевантность ссылки."
По правилам URL должен отражать уровень вложенности, это стандартная иерархия файлов, которая используется и в операционных системах. Путь к папкам указывается полностью, а не сокращенно. Так же должно быть и в URL по-хорошему.
Но вот переделывать 60 тысяч страниц и снова ждать переиндексации, наверно оно того не стоит. Хотя, если заморочиться, то можно и таблицу редиректов со старых страниц на новые сделать и все быстро пройдет.
Насколько это повлияет на продвижение утверждать со 100% уверенностью не могу, т.к. таких экспериментов не проводил.
Насколько помню у них погрешность была огромная.
Как часто обновляется информация на сайте, добавляются новые страницы?
Нет, поможет актуальная карта сайта с актуальными датами последних изменений страниц.
Мой 5 пункт относился к ссылочным донорам, каким боком вы его к своему сайту отнесли? ) Если у вас с сайтом все хорошо и поисковый робот бывает часто, то и переиндексация произойдет быстро. В случае с ссылочными донорами бывает так, что на сайте размещаются ссылки на страницах с большой глубиной вложенности, где поисковый робот бывает раз в пол года. Ссылки с таких страниц индексируются крайне долго.