- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день.
Возникла такая проблему при написании скрипта проиндексированных страниц яндексом.
Больше 1000 страниц Яша не отдает.
Пробовал через нттп без авторизации 1000.
Через панель вебмастера только 1000.
Пробовал через xml яндекса = 1000.
Подскажите существует ли какой еще способ, откуда можно отпарсить все проиндексированные Яндексом страницы сайта. В том случае, если их больше 1000.
Какие идеи будут на этот счет?
добавлять
inurl:{ru|ua|com} или как там в Яндексе. Короче добавлять условия, которые сокращают выдачу..
в том то и дело что вариантов запросов в Яндекс не столько сколько можно придумать для гугла
Bitman, у гугля существует вариант парсинга больше 1к?
Bitman, у гугля существует вариант парсинга больше 1к?
Это все примерно (Гугл не отдает много результатов на инюрл)
пусть запрос "каталог сайтов"
inurl:"ru" - 1000
inurl:"ua" - 1000
inurl:"com" - 1000
...
итого 3000
-inurl:"A"
-inurl:"B"
-inurl:"C"
и так еще можно скатать тыс пять.
добавлять
inurl:{ru|ua|com} или как там в Яндексе. Короче добавлять условия, которые сокращают выдачу..
По-моему, вопрос был о том, как пропарсить все страницы одного сайта.
Т.е. тогда уже надо просто разные слова в поиск по сайту пускать, а не зоны выбирать.
Но есть и ещё один способ - взять паука, который создаст список страниц (таких много в свободном доступе) и затем последовательно засунуть страницы в Яндекс и проверить их индексацию.
Но есть и ещё один способ - взять паука, который создаст список страниц (таких много в свободном доступе) и затем последовательно засунуть страницы в Яндекс и проверить их индексацию.
Так же склоняюсь к этому варианту. Единственный минус: если страниц много, или в индексе мало - то запросов может получиться в разы больше чем необходимо
гугл можно хитрым datarange с юлианским форматом дат пользоваться
+1 куплю тулзу которая проверит на индекс сайт с много тысяч страниц
Как вариант тянем пауком карту сайта и чекаем каждую страницу на индекс.
Я делаю так.
Много,
чекаем по разделам
lenta.ru/news/ = 356 тыс. страниц
Много,
чекаем по частям раздела
аналогично
http://yandex.ru/yandsearch?serverurl=lenta.ru/news/2009/01/
главное выделить урлы по которым можно составить правило, по которым разбивается весь сайт на кол-во страниц<1000