ТС, под джумлу нужен второй вариант однозначно.
многое будет зависеть от того, какой шаблон у самой джумлы, какие используются модули и тд..
не забудьте только проверить работоспособность robots.txt в панелях ВМ яндекса и гугла, мало ли что.
первый вариант с robots.txt, просто написать
Disalow: /page?* // все адреса, которые содержат page? и символы после "?" со временем выпадут из индекса.
второй - поставить на джумлу sh404SEF он используется для создания ЧПУ. в итоге он соберет все адреса одной страницы, оставит только вида "http://www.site.ru/cat/page.html" , "левые" адреса на страницах поменяет на нужные.
с .htaccess на ум ничего не приходит.
тут не персональный блог, кто-то задает вопросы, кто-то отвечает. если мой ответ неверен, напишите правильный.
тоже два сайта склеилось, а вот беки не склеились. ну и нафиг такие зеркала?
попробуйте этой программой, заодно и битые ссылки найдете
статистику показов в директе, хотя ТС начинала с вордстата🙄
в начале да, потом все реже и реже.
с активной продажей ссылок есть реальный шанс сильно просесть в позициях и доход от контекста будет мизерный.
для СДЛ, на мой взгляд, лучший вариант - контекст, в идеале - прямые рекламадатели.
в приличных грабберах такие ссылки удаляются на автомате.😂