Пример приведите. А то согласно вашей схеме должно получиться:
<meta name="keywords" content="слон, слон, слон, слон" />
<meta name="description" content=слон" />
Не вижу практической ценности.
Если же key1 - это какое-то случайное ключевое слово из списка, представленного в файле - уже проще. Тогда можно сделать из файла список, написать простой скрипт на JS, который будет из этого списка случайно дергать ключевики и заменять в тексте страницы, а затем открыть эту страницу, и "сохранить как", так как обычный JS (простой, не node), не может делать правки в файлах напрямую.
Но тогда description будет состоять из несвязных слов, что тоже совершенно неинтересно :)---------- Добавлено 14.05.2014 в 09:15 ----------
За POSIX - спасибо :) Не знал.
Как я понимаю, сайтов - любых? То есть, тематика, страна не важна?
Есть уйма парсеров поисковых запросов Гула или Яндекса, например. Забиваете нужны запрос, на выходе получаете файл со списком доменов, тайтлом/дескрипшин сайтов, фильтруете те сайты, где Гугл вывел не главную страницу (например, отфильтровать все, где после ".ru/" не стоит пробел. А потом данный файл (csv, xml) импортируете в систему.
Тут все зависит от хостинг-провайдера. Нужно связаться с ним, предоставить данные о том, что была заявка из Роскомнадзора, и что вы все исправили.
Далее, хостинг-провайдер обязан оформить заявку в Роскомнадзор на удаление сайта из Реестра Запрещенных Материалов (http://eais.rkn.gov.ru/)
Цитата (http://eais.rkn.gov.ru/faq/):
В самом худшем случае, вы сможете запросить разблокировку через суд:
---------- Добавлено 14.05.2014 в 08:53 ----------
UPD: Насколько я понял, если жалоба на сайт пришла именно вам (а не хостеру), то и заявку на разблокировку можно подать самостоятельно (пример: http://habrahabr.ru/post/158423/).
Эти "несколько минут" и есть лишние трудозатраты) Как и отдельный мониторинг цен/позиций по кампании.
Это дольше чем добавить 1 галочку в регионы)
Рерайтинг нужен только если вы хотите вести продвигать сайт по нч/сч. Но группу же вы не собирались продвигать. Так что, можно смело копировать контент пачками, худшее, что грозит - бан Яндекса, но если основной трафик будет идти с группы, то на Яндекс можно и забить.---------- Добавлено 14.05.2014 в 00:50 ----------
И тут еще интересен вопрос, как мониторятся ссылки. Если автоматически, то может достаточно простой прокладки с редиректом.
CMS для сайтов-визиток без SQL-базы с русским языком:
Есть еще всякие зарубежности, вроде Monstra (http://monstra.org/), Stacey (http://staceyapp.com/documentation/) и др., но тут на любителя, ничего не посоветую.
Парсер/граббер материалов/постов из ВК в файл. Сейчас можно сделать точную копию постов из одного сообщества в другое. Если же я хочу сделать скопированный контент более уникальным (обновить описания, картинки и т.п.) - то только вручную. Если бы была возможность спарсить контент группы, обработать xml-файл, а затем залить этот файл в качестве контента для другой группы (запланированными постами по времени) - это был бы золотой софт.
Хм. Ну, с другой стороны, все не так критично - спарсить материалы, залить на WordPress, приклеить внятный шаблон, и ссылки вести оттуда. + за счет количества/веса ссылок из группы можно будет вывести по нч/сч и получать больше заинтересованного траффика.
А для каких конкретно товаров применялись данные лендинги? Ну, 1-2 для примера.