Str256, это почти исключено. Прикрепил файлы, написал ответ и отправил его. А потом хотел дописать, но тикет закрыт.---------- Добавлено 28.04.2013 в 20:37 ----------Для съема позиций важно чтобы IP были российскими? В смысле чтобы позиции точно определялись.
MIND, а почему закрыт тикет, но ответа по сути не было. Не очень понимаю. Хотел дописать туда информацию, а гляжу уже закрыт тикет. Непонятно.
Str256, проблема в том, что рано или поздно, при том, что точно есть живые прокси, вылетает:
Причем в Яндексе через пару часов тоже такое вылетело. Сейчас вроде подобрал настройки или просто повезло, уже три часа шуршит и даже Гугл.
Но я с антигейтом делаю, иначе вылетают IP пачками, если капчи не распознавать. Антигейт копейки стоит, в моем случае.
P.S. Для слов где пустые данные или надпись "нет данных" - имеет смысл отобрать их и прогнать еще раз отдельно?
Проверил прокси в ПС, с выбросом тех, где капча вылетает. Осталось 430 прокси, но все равно процесс останавливается через несколько часов, в Яндексе тоже. Доходит очередь забаненного прокси, поток завершается и проверка данных завершается. Почему не идет проверка через оставшиеся прокси - не понимаю. В суппорт написал.
С этой настройкой не пойму:
Если я использую список прокси, можно ставить больше 1 потока? В пояснении в программе как-то не очень внятно написано.
Специально проверил, везде отключено.
Проверял только в Яндексе. Но в гугле просто вырубается поиск после бана прокси.
У fineproxy такое может быть? Зачем тогда платить, если там шлак забаненый? :(
Что не так делаю:
Загружено около 1000 прокси, почему останавливается процесс?
И капчи одна за одной валятся (походу нельзя выставлять больше одного потока в настройках поисковая выдача?) и при этом в антигейт отображается только мой IP, так и должно быть, не смотря на использование прокси?
Анализ неявных дублей - можно ли сделать сортировку по этим дублям? Что-то у меня это не удалось. Чего то не понял, как с этим инструментом работать, если там только экспорт в Excel можно сделать.
Это о чем речь идет, не совсем понимаю. Это про определение позиций и релевантный страниц? Мне казалось что частотность большую проблему вызывает.
Str256, спасибо, все получилось. :)
Только еще много вопросов.
1) Куда сохранять проекты? После каждого обновления проект исчезает и корневой папки программы и приходится его в бэкапах искать.
2) В каком случае нужны прокси, точнее даже так.
Собрал я стату с Метрики, далее мне нужно определить:
- позиции по этим ключам
- релевантную страницу
- частотность
У Fineproxy, к примеру, разные пакеты. Есть и 1000 IP и 70 IP. Сколько примерно надо для этих действий для 10K, 50K и 100K ключей, хотя бы ориентировочно.
Насколько я понял, для позиций и релевантных страниц особо много IP не нужно, а с вордстатом запутался с этими всеми вариантами, да и после всех ужесточний, что на вордстате появились.
Мануал бы какой-нибудь на эту тему.
Отличная программа, еще бы мануал более подробный. Такой вопрос - применил я фильтр, а можно как-то сохранить именно отфильтрованные данные, чтобы я мог с ними дальше работать. А то получается закрыл проект, потом опять надо фильтр применять, чтобы получить необходимые данные. Неудобно таскать большой проект, а работаешь ведь реально не со всеми данными.