- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
С помощью какой бесплатной программы/онлайн утилиты можно получить файл-список проиндексированных страниц в яндексе?
ну хоть в одном инструменте это есть? семонитор выводит только часть проиндексированных страниц
Вообще говоря, никакая тулза не высосет из Яндекса то, что он не показывает через браузер.
Для всяких хитрых нужд есть у меня самопальная обдиралка любого SERPа в Яндексе.
1. Выкладываем файл на хостинг с PHP, убрав предварительно «.txt».
2. Формируем нужный запрос к Яндексу, лучше по 50 результатов (к урлу прибавить &numdoc=50), копируем URL.
3. В нижнее поле «обдиралки» пихаем целиком этот Яндексовский URL и жмем на кнопку.
4. Страница начинает время от времени перезагружаться, в текстовое поле вываливаются URLы из SERPа.
5. Когда выдача заканчивается, скрипт сам останавливается, а поле с URLом SERPа очищается.
Есть шанс бана сервера Яндексом, но если не постоянно гонять, то вроде и не банит.
Вообще говоря, никакая тулза не высосет из Яндекса то, что он не показывает через браузер.
Для всяких хитрых нужд есть у меня самопальная обдиралка любого SERPа в Яндексе.
1. Выкладываем файл на хостинг с PHP, убрав предварительно «.txt».
2. Формируем нужный запрос к Яндексу, лучше по 50 результатов (к урлу прибавить &numdoc=50), копируем URL.
3. В нижнее поле «обдиралки» пихаем целиком этот Яндексовский URL и жмем на кнопку.
4. Страница начинает время от времени перезагружаться, в текстовое поле вываливаются URLы из SERPа.
5. Когда выдача заканчивается, скрипт сам останавливается, а поле с URLом SERPа очищается.
Есть шанс бана сервера Яндексом, но если не постоянно гонять, то вроде и не банит.
О чудо такое еще и приносит пользу ?
жуть
одноформатный скрипт работает имменно та как работает. по другому не дает
либо пишете согласно своих критериев либо даеЁте сводку на коменнты к нему,
О чудо такое еще и приносит пользу?
Польза — вещь относительная. Мне понадобилось ободрать 20 нетривиальных серпов — я написал «чудо», как сумел. Если вам оно бесполезно — никто не неволит. Задачу, поставленную Stalker-g2, оно может решить ровно настолько, насколько это решается с помощью языка запросов к Яндексу. Надо только запрос подобрать наиболее подходящий. Например, такой или такой.
одноформатный скрипт работает имменно та как работает. по другому не дает
либо пишете согласно своих критериев либо даеЁте сводку на коменнты к нему,
Ничего не понял. Поясните.
кстати, прикольная утилитка... спасибо за линк
да, спасибо, очень интересно :)) а я подумал решить задачу по-другому, написал робот-индексатор сайта, карту составляет.
потом её проверять на проиндексированность в Я... каждую страницу
собственно говоря такой скрипт на перле, размещённый в папке c:\crawler откроет файлик sitemap.txt, который содержит на каждой строке по ссылке и разобьёт его на 2 файла sitemap.ind.txt и sitemap.noind.txt - проиндексированные и непроиндексированные странички.
Создал папку c:\crawler, создал файл crawler.pl и sitemap.txt. В sitemap.txt положил адреса нескольких страниц сайта на каждой строке. Запустил скрипт - не работает
З.Ы. Просто мне нужен скрипт, который бы проверял проиндексированность каждой страницы из списка
я бы у яндекса XML спросил.
яндекс.xml жадный-1000 запросов сутки, а мне по 4000 в сутки проверять надо.
так-проверяет нормально. а xml я думаю быстро заблочит