- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день, поделитесь, пожалуйста, как вы парсите список проиндексированных в Google страниц сайта?
В соседнем топике посоветовали Comparser, с лицензией за 2000р.
Возможно есть какие то платные, но более комплексные решения, типа там се-монитора или подобных. Или бесплатные.
Добрый день, поделитесь, пожалуйста, как вы парсите список проиндексированных в Google страниц сайта?
В соседнем топике посоветовали Comparser, с лицензией за 2000р.
Возможно есть какие то платные, но более комплексные решения, типа там се-монитора или подобных. Или бесплатные.
рекомендую www.rush-analytics.ru
НордЛанд, Я вижу, что данный сервис проверяет на индексацию указанный список страниц. Там есть отдельно парсер проиндексированных страниц?
Ксену - потом в плагин винка. Все бесплатно)
От Андрея Липатцева (Гуглойд) слышал, что самый надежный способ, это добавить карту сайта.xml в search console, он там покажет отправленные и проиндексированные. Это мол самые точные данные.
НордЛанд, Я вижу, что данный сервис проверяет на индексацию указанный список страниц. Там есть отдельно парсер проиндексированных страниц?
давно не пользовался, но насколько помню, всё там у них было по уму, отдельно те что в индексе по гуглу и отдельно те что деиндекс.
---------- Добавлено 09.03.2017 в 18:05 ----------
От Андрея Липатцева (Гуглойд) слышал, что самый надежный способ, это добавить карту сайта.xml в search console, он там покажет отправленные и проиндексированные. Это мол самые точные данные.
стат.данные из SC, это на мой взгляд самые неточные данные, какие только можно получить по сайту. Единственные точные данные, какие там могут быть для нас - это сообщение о ручных санкциях :)
стат.данные из SC, это на мой взгляд самые неточные данные, какие только можно получить по сайту.
Поэтому. гугл их и не дает. Это и нагрузка на сервак, и менятся так быстро может. что то что просканировал сейчас. может оказаться измененным через 10 минут :)
Жендосье, ну он почти точный, но самих страниц там нет. Карта сайта - это данные, которые только отправлены с самой картой, к индексу они мало имеют отношения.
Вот например отправил карту http://screenshot.ru/upload/image/zE4r
пишет что почти 40К в индекс взял,
а вот переходим в статус индекса http://screenshot.ru/upload/image/zE4E
и видим что вдвое больше страниц в индексе, именно этот пункт показывает реальное положение дел (на дату минус 3 дня), которая совпадает с site: в поисковой строке (но в site инфа на текущий запросу момент, плюс быстрый, поэтому там как правило больше показывает, чем в индексе).
А чтобы получить именно урлы все в индексе, придется воспользоваться сторонним сервисом. rush-analytics в принципе не лучше и не хуже других, вполне можно получать нужные данные.
XPraptor, donc, rush-analytics, Ксену+плагин - это все способы проверить имеющуюся пачку урлов на индексацию. Если не прав, поправьте.
А например, если вчера с сайта удалили вирусы, и в индексе Google 10к мусорных страниц, с помощью этого софта мы о проблеме узнаем?
Жендосье, ну он почти точный, но самих страниц там нет. Карта сайта - это данные, которые только отправлены с самой картой, к индексу они мало имеют отношения.
Вот например отправил карту http://screenshot.ru/upload/image/zE4r
пишет что почти 40К в индекс взял,
а вот переходим в статус индекса http://screenshot.ru/upload/image/zE4E
и видим что вдвое больше страниц в индексе, именно этот пункт показывает реальное положение дел (на дату минус 3 дня), которая совпадает с site: в поисковой строке (но в site инфа на текущий запросу момент, плюс быстрый, поэтому там как правило больше показывает, чем в индексе).
А чтобы получить именно урлы все в индексе, придется воспользоваться сторонним сервисом. rush-analytics в принципе не лучше и не хуже других, вполне можно получать нужные данные.
Согласен с Вами, но в общей выдаче показан ещё и добавочный индекс + насколько мне помнится, страницы закрытые от индексации. Скорее так, если нужно знать общее количество корректных страниц в индексе (которые мы передали в карту xml и знаем, что они нормальные), то смотрим на xml.
Ну а если ищем дубли (помимо стандартных методов), то к платному софту, например, ComparseR (который тоже далеко не всегда корректно работает).
Автору можно только советовать разбивать сайт по кластерам и ручками смотреть, либо разово заплатить разработчикам за написание достаточно непростой софтины. Бесплатных, увы, нет
Тоже интересен вопрос как выгрузить все проиндексированные страницы из гугла. В яндексе 10к страниц и это близко к реалу а в гугле 160к это огромная разница вот и хочу найти что там такое в индекс лезет.