- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Поделитесь опытом.
Облачные сервисы - дорого.
Я пользуюсь serparser + 1000 прокси, но все прокси банятся гуглом и хватает их на максимум 1-3 дня.
Может есть более лучшие решения?
Семантику уменьшить не могу т.к. все запросы с частоткой 100+
Может есть более лучшие решения?
есть.
чекать НЕ каждый день, например.
Может есть более лучшие решения?
Менять прокси каждый день.
Если не секрет, а зачем 10 тыс. каждый день проверять?
Если не секрет, а зачем 10 тыс. каждый день проверять?
Проект большой, ответственный. Надо понимать в какой день и после каких изменений пошло не в плюс.
---------- Добавлено 18.09.2015 в 03:26 ----------
Меня больше интересует как облачные сервисы собирают позиции. Может кто знает? Неужели тоже через прокси?
Меня больше интересует как облачные сервисы собирают позиции. Может кто знает? Неужели тоже через прокси?
Нет, покупают ипы. Я когда этим занимался покупал. Даже для 256 ипов 10 000 запросов в день не количество. Ну если нормальный программист и Вы что-то понимаете в запросах и банах ПС.
Но это же не то, что Вам нужно? Ипы стоят денег, программист стоит денег, а тут, как я понимаю, ищется холява.
Проект большой, ответственный. Надо понимать в какой день и после каких изменений пошло не в плюс.
В Яндексе можно собирать раз в неделю, в Гугле раз в 3-4 дня. Больше попросту пустая трата времени и ресурсов. В реальности вообще раз в 2 недели можно.
быть такого не может, что 1000 прокси не хватает для 10000 запросов. Это же ниочем вообще. Может прокси забаненные изначально (много пользователей под Яндекс). Пробуйте прокси от других продавцов, например, ищите на зарубежных форумах предложения, где Яндекс никому не нужен.
Поделитесь опытом.
Облачные сервисы - дорого.
Я пользуюсь serparser + 1000 прокси, но все прокси банятся гуглом и хватает их на максимум 1-3 дня.
Может есть более лучшие решения?
Семантику уменьшить не могу т.к. все запросы с частоткой 100+
Скрипт SE Ranking.
Нужно будет покупать прокси, сервис разгадывания к-а-п-ч-и, выделенный сервер. Но явно дешевле облачных сервисов получится.
получается что без вложений такие объемы нормально не проверить?
получается что без вложений такие объемы нормально не проверить?
Получается, что без вложений нормальный сервис не сделать.