- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Яндекс только что ответил, что API нет пока((( Чем не удивил)
Вроде как яндекс даже за деньги не дает юзать xml. Что-то у них видимо там назревает..
Вроде как яндекс даже за деньги не дает юзать xml. Что-то у них видимо там назревает..
XML он дает юзать, но не более 1000 запросов в день
XML он дает юзать, но не более 1000 запросов в день
Купи на сервак несколько IP и будет у тебя больше запросов. :) Правда катит, если сервис будет платным, иначе смысла нет.
Купи на сервак несколько IP и будет у тебя больше запросов. :) Правда катит, если сервис будет платным, иначе смысла нет.
Очень обидно, если честно, потому что идея очень хорошая и проект был бы не плохой. Похоже на то, что придется реально покупать примерно 10-15 IP, но меня это просто убивает, что стандартные вещи, которые любой уважающий себя проект дает, у Яндекса нужно вымаливать просто.
Я не могу понять, почему проект, на который Рунет основывается сейчас, так себя ведет!!!!
Может быть кто-то мне даст ответ, потому что меня это, как опытного программера, частисно сеошника и т.д просто бесит
а как думаете, если все-таки рискнуть использовать курлы с таймаутом?
а вот интересно, каким сервисом пользуется SAPE, чтобы получать данные о миллионах страниц :)
а вот интересно, каким сервисом пользуется SAPE, чтобы получать данные о миллионах страниц :)
Интересно конечно, но боюсь, что с той скорость как он обновляет, там тоже все не совсем оптимизированно
Несмотря на то, что парсить выдачу, как говорили, запрещено, можно потихонечку делать это через сокеты с проксями. Если автоматизировать нахождение и проверку последних, никаких проблем не вижу.
Несмотря на то, что парсить выдачу, как говорили, запрещено, можно потихонечку делать это через сокеты с проксями. Если автоматизировать нахождение и проверку последних, никаких проблем не вижу.
Хорошоая идея. Рулит.Буду делать