Закрывать другие страницы от робота не нужно. Просто генерить номер страницы в тайтлы.
Такое возможно только в слабо конкурентных нишах, где генерируют мало контента. По факту стабильной позиции без регулярных доработок быть не может.
Конфликта с чем? Мы показываем роботу что страницы с "?" нам в индексе не нужны.
После этого можно тем же Comparser сделать полный краулинг сайта с использованием директив из robots.txt. На выходе получим карту сайта без лишних страниц.
Все копают htaccess и никто не сказал что в robots закрыть от индексирования страницы с параметром "?"
Выглядит так:
Disallow: /*?*
В таком случае вас вполне должен устроить вариант без CMS.
Если из контента будет изменяться только номер телефона или другие контакты, то вполне можно обойтись и без CMS. Как минимум - надежнее. Но со временем вы все равно придете к тому что контент пора менять)
KAmaR +- будут позиции на месте. URL хоть частично и принимается во внимание при ранжировании, но основа это контент. Контент будет тот же, метатеги те же.
Хорошие ссылки как были весомыми, так и остались. Контент как был важен - так и остался. Внутренняя оптимизация тоже никуда не делась. Прогоны по каталогам и раньше лишь в редких случаях давали результат.
По поводу дальнейшего ранжирования никто вам ответа не даст со 100% уверенностью.
Работать, как ни странно, нужно над всем вышеперечисленным.
По приведенной ссылке будет примерно так:
http://mysite.com/page/*?*
Можно поголовно все URL с параметрами прикрыть таким образом:
Disallow /*?*
Розетка информационник?
По теме - чем меньше тем лучше. Не может быть единой цифры для всех. Почитайте на тему как вообще определяется отказ в метрике и проработайте этот момент.