5LJRRP, чего так?
В основном, адалт.
Климов, спасибо за предложение. Но если бы я умел его продуктивно юзать, никого бы не искал.
В крайнем случае готов дать доступ к аккам партнёрок. Но лучше, как-то так. Раз в неделю делаю скрин статы, вы стучите в саппорт партнёрки и он подтверждает, что этот скрин верен для этого партнёра. Id можно проверить, пройдя по ссылке для слива на доре. Т.е. вы видите куда льётся траф(можно проверить посмотрев доры) и видите сколько он приносит(саппорт подтверждает статистику).
Покупателям покажу примеры аналогичных ранее сделанных сайтов в индексе Яндекса. Такие сайты(на нулёвых доменах) приносят в сапе от 5-10 р в стуки.
Будут в наличии 3 дня:
- Сайт без домена. 418 html стр. Копипаст. Строительство. 140 р
- Сайт без домена. 402 html стр. Копипаст. Строительство. 140 р
- Сайт без домена. 386 html стр. Копипаст. Строительство. 140 р
- Сайт без домена. 422 html стр. Копипаст. Строительство. 140 р
- Сайт без домена. 398 html стр. Копипаст. Строительство. 140 р
- Сайт без домена. 406 html стр. Копипаст. Строительство. 140 р
Если забираете все, отдам за 700 р.
Снова делаю на генерированном тексте + немного копипаста:
1000 страничный сайт - 90 р
.:nbd:., ещё раз, спасибо, за помощь и разъяснения. Фавиконки в большинстве случаев заливает нормально.
rushter, а RB умеет в каком-то другом режиме их заливать?
Чтобы новую тему не создавать. В "Выделение кеев в тексте" отмечаю только "<i>"(или любое другой тип выделения кея), в результате часть кеев выделена, часть нет, всё нормально. Затем запускаю этот же конфиг в пакетном режиме, в результате все кеи выделены. У кого-то такое было, как решали?
Ещё. "Список заданий:" не сохраняет больше 99 строк. Это баг или фича?
Заранее благодарен за ответы.
Взял акков, получил бонусы. Магазином доволен)
4arger, спасибо). Последний вариант работает, страницы с редиректом идут в not200.txt.
puika, в режиме скана списка урлов, парсер бегает во внутренним ссылкам на странице и парсит их. И, если я правильно понял хелп, это не отключается. А результаты он экспортирует только в свой формат, т.е. нужные результаты выцепить не получается.
4arger, залил на хостинг, запускаю, жду, result.txt не пополняется. Скрипт кладёт урлы в result.txt только если от них ответом приходит 404 ошибка? А хостиги, на которых лежат проверяемые сайты, в случае отсутствия файла или блокировки сайта, редеректят на свою страницу. Там и пишут, что "404 ". Но самого кода ошибки нет. Что нужно подправит в скрипте, чтобы он клал урлы в result.txt, если находит на странице какой-то текст(под каждую партию разный).