Напишите потом, пожалуйста, по результатам - как там у них с валютным контролем и т.д.
Тоже хочу у них оформить счет ИП.
А в чем проблема то вообще?
В любом, более-менее адекватном плагине кэширования, любые метки можно настроить в исключение.
При таких настройках, любая страница будет отдаваться из кэша, даже если в url стоит метка.
Да ну хорош вам интриги то плести ))
100-120 или 30-50, разница вообще ни о чем.
Это даже для поисковых ботов будет несущественным, не говоря уже о посетителях.
Намек был на то, что подобным говном забиты уже все поисковики, под завязку.
И да - это бредотекст, как бы вы не пытались доказать обратное =)
Заходя на подобные сайты, мне достаточно первых трех предложений, чтобы понять, что это генеренка.
На всё про всё, уходит максимум 10 секунд и сайт закрывается - в итоге, отказ.
Может и есть еще недалекие, кто будет читать подобные тексты и пытаться уловить смысл написанного, которого в данном примере нет вообще.
Любой текст требует ручной правки, логической структуры, подачи и выводов - чего нет и никогда не будет в генеренных текстах.
Это называется "бредотекст", а не статьи.
С такими объемами у вас не будет времени на элементарную вычитку даже по диагонали.
Следовательно, на выходе будет откровенная чепуха, с кучей несостыковок и лингвистических ошибок.
Были уже подобные дельцы, сервис авторизации через соцсети, Ulogin, если не ошибаюсь.
Так они через фрейм подгружали на донор ссылки с вредоносами и совершенно не брезговали этим.
Вы тоже столкнетесь с подобным, 100%.
Лучше юзать подобные скрипты от поисковых систем, у них есть кнопки, там риска подобной ерунды гораздо меньше.
А еще лучше - самому написать, используя JS, как пример, из какого-то подобного сервиса.
А как вы их будете отделять со 100% гарантией?
Я, как пример, уйду с сайта, где меня периодически будут заставлять набирать текст типа "ясегодняплавалпятьраз"...
Да по сути никаких проблем, но это неправильно.
Выше вам верно написали, что постепенно вы к этому всё равно придете.
Просто нужно делать постепенно и аккуратно, и не в коем случае не выкидывать из индекса те страницы, которые сейчас в индексе, иначе всё обрушится.
Налаживайте правильный canonical, а потом с индекса делайте редирект 301 на новые страницы с правильным canonical, и постепенно всё придет в норму.
Затем уже можно будет в robots.txt через Clean-param вычистить все страницы с ?ver=2 и т.д.
Но это уже после переиндексации, а не до.