C чего вы решили, что это уникальный контент?
Вы уверены, что пользователь размещая свои рекламные объявление на каждом последующем сайте объявлений ответственно и строго выполняет рерайтинг своего объявления до полной уникальности?
Как долго крутите? Текущий месяц или более?
В Вордстате есть помесячная динамика видимости запроса, оценивайте разницу в колебаниях этих значений, тогда будет понятно, влияет ваша накрутка на эти данные или нет.
Всё верно, поэтому для инфо сайтов вариант с накруткой как правило нерентабелен.
Обычно, у кого есть средства на ПФ на подобные проблемы не жалуется, поэтому выбирая накрутку нужно:
а) найти добросовестного исполнителя
б) ежемесячно оплачивать эту услугу, а это сейчас не карманные деньги
Всегда считалось. Хоть в теге <a>, хоть в теге <img>.
Если нужен автомат, то Aparser или Зенка тебе в помощь. Покупаешь софт, даешь ТЗ прогеру, который напишет тебе скрипт для этих программ.
Дело не в софте и не в необходимости автоматизации, проблема вот в этом,
т.е. сам подход к рабочему действию неверный, нельзя просто так увеличивать длину запроса.
Чтобы дать ТЗ, надо правильно его сформулировать.
Вот не нужно второстепенный товар размещать микроразметкой https://schema.org/Product.
Яндекс тянет со страницы приоритетный для него тег <picture> и тащит в сниппет картинку из этого объекта.
Микроразметку делайте только у титульного товара, все остальные, что всплывают в рекомендация - в <aside> и без микроразметки, лучше даже вообще картинки в рекомендациях загружать JavaScript-ом.
Это странно, потому что программу можно скачать бесплатно, а о каких ресурсозатратах вы говорите при простом контекстном поиске в папке мне не очень понятно.
Когда список небольшой, допустимо, но когда их 100 и более, то такой запрос к поисковой системе не будет проходить кворум и лишние запросы будут просто отсекаться.
Если вы ищете все значимые вопросы и все релевантные страницы, то для вас должна быть важна полнота, а с полнотой с большим списком запросов будут проблемы.
Именно, лишние запросы не будут проходить по кворуму, об этом я сказал в самом начале этого поста.
Не получится. Когда у ПС есть ограничение на размер запроса, то доп. решением вы это никак не преодолеете.
Вряд ли вы в один запрос к поиску помещали списки ключевых слов, обычно это конструкция:
site:сайт.ру + запрос.
Но тут важный момент, потенциально в ответе вы сможете получить только те страницы, которые проиндексированы. Те, что не проиндексированы вы в результате не увидите.
Далее. Вопрос сформулирован не совсем верно. Через оператор site ищутся не запросы, а страницы т.е. в результате вы получите релевантные страницы тому запросу, которые соответствуют части запроса [+ запрос].
Т.е. вы ищите, на каких страницах физически попадаются искомые для вас слова?
Можно сделать следующим образом.
Берете старенькую программу Teleport PRO (программа для скачивания сайта). Её особенность в том, что она каждую скаченную страницу помещает в отдельный html файл. Все html файлы будут в одной папке. html - фактически это текстовый файл с html разметкой, поэтому вы смело можете формировать поиск по общей папке с учётом содержания и получите те страницы, где физически встречается необходимый запрос.
Допустим, меня интересует, где на каких страницах (файлах) встречается слово "Делон" (фамилия актёра), пожалуйста, я получаю:
перейдя на файл, я понимаю, какая это страница.