Sergeyber, спасибо.
handycash.biz У них там проблемы видимо и регистрация закрыта. Посоветуйте пожалуйста аналогичную ПП реализующую, что то вроде файлового каталога/поиска http://s1-fastfileserver.ru?
Подскажите пожалуйста партнёрку s1-fastfileserver.ru ?
Нет.
При чём тут прокси, при регистрации почты в любом случае капчу вводить нужно.
url правильный и один и тот же во всех трёх пунктах. $captcha[1] и есть idkey (он парсится скриптом выше).
Страница не обновляется, я реальный кусок кода привожу, вот для большей наглядности:
$url = 'http://passport.yandex.com/digits?idkey='.$captcha[1];
echo '<img src="'.$url.'">';
file_put_contents('captcha.jpg',file_get_contents($url));
Ещё раз, Url один и тот же, капча показывается одна и та же до и после скачивания, но скачанная капча другая. Какая то злая магия.---------- Добавлено 10.03.2013 в 13:56 ----------Проблема решена. (Pda версия +обновление капчи &cantread=1 +скачивал курлом с куками. Возможно что то излишнее, но работает).
Всем спасибо, тема закрыта.
Дают картиночный трафик (~10% от общего), при том что я только размер меняю.
Улучшают внешний вид сайта (а следовательно и доверие) + задерживают внимание пользователя, что улучшает пф.
На днях сам эту тему изучал, пришёл к выводу, что стабильно уникализировать с сохранением осмысленности изображения, можно только зеркалированием. Как автоматизировать пока руки не дошли.
Почему же нужный запрос "корова ест траву" ?
xerox драйвера для принтера
canon драйвера для принтера
Очевидно разные запросы.
xerox драйвера для принтера 2012
Очевидно можно продвигать на одной странице.
Конечно есть смысл в вашем замечание, но в данном случае это крайность между не чистить ключи от дублей вообще (что по идее должно занимать несколько секунд у программы) и чистить их руками (что займёт многие часы работы человека).
Да нет же, при чём тут количество слов. Ключ "корова ест траву" содержит в себе ключ "корова". Зачем продвигать эти два ключа на разных страницах? Нужно продвигать страницу по ключу "корова ест траву", она продвинется и по ключу "корова ест траву" и по ключу "корова". С этой целью и нужно почистить список ключей.
Не знаю как ещё доходчивее объяснить. Это же очевидная необходимость.
Я видимо плохо описал задачу. Ещё раз. Cоставляю семантическое ядро. По ключу есть выборка из базы пастухова, txt на 200к ключей, вида:
корова
корова ест траву
корова ест траву на лугу
корова пьёт молоко
на луне пасётся корова
Проблема:
Зачем создавать три отдельных страницы под ключи:
Задача:
Очистить файл, что бы осталось только:
Задача не разовая и не по конкретному ключу и объёмы в миллионы ключей.
Спасибо за совет, но хуманэмулятор немного перебор.
На php у меня получилось, что чем больше список тем дольше проверка. 5к проверяет за 5 сек, 100к будет проверять около часа и т.д. плюс проблемы с памятью начнутся. А хотелось бы объёмы больше и быстрее обрабатывать.
Поставленную в первом посте задачу она к сожалению не решает.
Тогда цепочка излишне длинной получается: основной сайт - промежуточный - FDS (File Direction System - сам придумал) - домен раздачи.
Думаю достаточно: основной сайт - FDS - домен раздачи.
Идея ведь проста, наверняка кто то пробовал?
Даже если есть решает только 1 из трёх проблем и то не лучшим образом. Т.к. если к примеру сайт не один а 50, то для каждого запустить скрипт нужно.