Да, это так. Читайте про внутреннюю ссылочную перелинковку и анкорное ранжирование, об этом много написано.
Да.
Главное правило - знать меру. Не превращать возможность в явный признак переоптимизации.
Читайте про варианты перелинковки - масса материалов, масса обсуждений. Повторяться незачем.
Причём настолько, что он лишний... куда его не вставляй.
Так разве всякий копирайтер, кто готов взяться за эту работу?
Чекеры разные. Есть и плохие, и получше. Но главным образом - они не определяют кто писал, они выдают некую статистическую меру - на что похоже.
Поэтому если автор скормит написанный им текст, похожий на AI, то получит соответствующий результат.
В этом-то и основная проблема. Вебмастерам на потоке некогда читать, перечитывать и редактировать.
Они генерируют, вставляют, накапливаю массив данных, потом как сайт начинает проседать пишут - "Куда копать, статьи уник, трафик падает".
Им обычно отвечают - алгоритм изменился, массы сайтов покосило, привыкайте к реальности.
Вопрос не что ещё, вопрос - как из имеющегося.
Подобное водолейство из нагромождения абзацев читать не будут. Как минимум это будут проматывать. Как максимум - уходить на те сайты, где с текстом работают точечно, а не грузят читателя простынями из справочников.
Например, вот так
Вот обработка редакторского материала.
И подобных детекторов уже масса. У ПС аналитическая база и возможности на порядки сложнее и производительнее.
Впрочем, оно и на глаз видно, что текст сгенерированный.
Не пытайтесь обмануть систему, она сама вас обманет.
Я.Директ будет привлекать для вас трафик и рассчитывать его по любым конверсиям.
Через TOR браузер пробовали открыть? Что показывает?
В целом, также как я и указывал выше.
Допустим нас интересует тема https://searchengines.guru/ru/forum/1041490
Допустим, внутри темы мы ищем вот это содержимое,
Данный текст находится на 2-ой странице https://searchengines.guru/ru/forum/1041490/page2
Задаём в поиск конструкцию вида,
site:https://searchengines.guru/ru/forum/1041490/ (искать в указанном источнике) + "X-parser + Xevil топовый набор" (текст в кавычках, потому что нас интересует конкретная цитата).
Получаем результат,
при условии конечно, что страница с нужным содержимом проиндексирована Яндексом.
Ассортимент выбора настолько широк (от браузерных приложений до самостоятельных программ типа A-parser и Zennoposter), что отталкиваться надо от задачи.
Если просто спарсить отдельные поля, то хватить программы SC Frog и 15-минутного прослушивания ролика про использования Xpath.
Если с данными нужно выполнять какую-то логику (сравнения, калькуляции, работа с БД), то мой выбор - Zennoposter. Фактически это уже не просто программа, а полноценная среда для программирования необходимой автоматизации (не так давно об этом писал).
Зависит от задачи.
В общем и в среднем в парсинге конечно надо разбираться.