- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Яндекс только что ответил, что API нет пока((( Чем не удивил)
Вроде как яндекс даже за деньги не дает юзать xml. Что-то у них видимо там назревает..
Вроде как яндекс даже за деньги не дает юзать xml. Что-то у них видимо там назревает..
XML он дает юзать, но не более 1000 запросов в день
XML он дает юзать, но не более 1000 запросов в день
Купи на сервак несколько IP и будет у тебя больше запросов. :) Правда катит, если сервис будет платным, иначе смысла нет.
Купи на сервак несколько IP и будет у тебя больше запросов. :) Правда катит, если сервис будет платным, иначе смысла нет.
Очень обидно, если честно, потому что идея очень хорошая и проект был бы не плохой. Похоже на то, что придется реально покупать примерно 10-15 IP, но меня это просто убивает, что стандартные вещи, которые любой уважающий себя проект дает, у Яндекса нужно вымаливать просто.
Я не могу понять, почему проект, на который Рунет основывается сейчас, так себя ведет!!!!
Может быть кто-то мне даст ответ, потому что меня это, как опытного программера, частисно сеошника и т.д просто бесит
а как думаете, если все-таки рискнуть использовать курлы с таймаутом?
а вот интересно, каким сервисом пользуется SAPE, чтобы получать данные о миллионах страниц :)
а вот интересно, каким сервисом пользуется SAPE, чтобы получать данные о миллионах страниц :)
Интересно конечно, но боюсь, что с той скорость как он обновляет, там тоже все не совсем оптимизированно
Несмотря на то, что парсить выдачу, как говорили, запрещено, можно потихонечку делать это через сокеты с проксями. Если автоматизировать нахождение и проверку последних, никаких проблем не вижу.
Несмотря на то, что парсить выдачу, как говорили, запрещено, можно потихонечку делать это через сокеты с проксями. Если автоматизировать нахождение и проверку последних, никаких проблем не вижу.
Хорошоая идея. Рулит.Буду делать