В целом, также как я и указывал выше.
Допустим нас интересует тема https://searchengines.guru/ru/forum/1041490
Допустим, внутри темы мы ищем вот это содержимое,
Данный текст находится на 2-ой странице https://searchengines.guru/ru/forum/1041490/page2
Задаём в поиск конструкцию вида,
site:https://searchengines.guru/ru/forum/1041490/ (искать в указанном источнике) + "X-parser + Xevil топовый набор" (текст в кавычках, потому что нас интересует конкретная цитата).
Получаем результат,
при условии конечно, что страница с нужным содержимом проиндексирована Яндексом.
Ассортимент выбора настолько широк (от браузерных приложений до самостоятельных программ типа A-parser и Zennoposter), что отталкиваться надо от задачи.
Если просто спарсить отдельные поля, то хватить программы SC Frog и 15-минутного прослушивания ролика про использования Xpath.
Если с данными нужно выполнять какую-то логику (сравнения, калькуляции, работа с БД), то мой выбор - Zennoposter. Фактически это уже не просто программа, а полноценная среда для программирования необходимой автоматизации (не так давно об этом писал).
Зависит от задачи.
В общем и в среднем в парсинге конечно надо разбираться.
Приведите рабочий скриншот, чтобы было понятно, как выглядит эта проверка в контексте вашего сайта.
Здравствуйте.
Сегодня заметил заходы на сайте с ip
Проверьте в Метрике по Вебвизору с полтора десятка рабочих сессий. Если будет понятно, что бот, определяйте сеть и блокируйте её целиком.
Приветствую, у кого какие размышления по поводу сквозных ссылок? Есть от них профит или же добивать вечными?
Ранее был миф, что сквозняк хорошо помогал....
Эффект ссылочного с периода "эпохи ссылочного" заметно снижен.
Гадать здесь можно бесконечно, смысл имеет только тестировать и проверять эффект.
Тогда дополнительный вопрос. Эти различия настолько необходимо для осознания?
Улавливаете разницу между осознать нюансы и получить ясное рук-во к действию?
Ждите, задержки случаются.
До этого не закрыл их в robots.txt. Сейчас закрыты.
Код этих страниц 200 SEARCHABLE
Пробуйте ещё раз. И убедитесь, что правила robots точно покрывают эти страницы (в Вебмастере можно проверить).
p.s. Иногда Яндекс может глючить, поэтому настойчивость и повторные действия нередко решают вопрос.
p.s.p.s. Также конкретную ситуацию можно обсудить с Платоном.
У меня многократно так было - вижу какую-то явную аномалию в Яндексе, убеждаюсь, что она устойчиво и не зависит от моих действий - пишу в Яндекс, через неделю вопрос закрыт. Так что возможностью общения с тех. поддержкой тоже надо пользоваться.
Съесть-то съест. Общеизвестно, что когда сайт трастовый ПС закрывают глаза на мелкие нарушения, но когда сайт теряет кондиции и начинает увеличивать неуникальную часть, то этот изъян может способствовать вылету страниц из индекса по МПС.
Соглашусь, не нужно дублировать слова в Title и Description в том же порядке да ещё в начале строки.
Об этом же написано,
Description должен быть полнее и ориентирован на более формирование рекламных сниппетов.
ПС отлично понимают шаблонизированные приёмы, поэтому если подставляемая часть title-а целиком дублируется в description-е это плохо.