Magnetic Resonance

Рейтинг
30
Регистрация
21.12.2009

5LJRRP, чего так?

В основном, адалт.

Климов, спасибо за предложение. Но если бы я умел его продуктивно юзать, никого бы не искал.

В крайнем случае готов дать доступ к аккам партнёрок. Но лучше, как-то так. Раз в неделю делаю скрин статы, вы стучите в саппорт партнёрки и он подтверждает, что этот скрин верен для этого партнёра. Id можно проверить, пройдя по ссылке для слива на доре. Т.е. вы видите куда льётся траф(можно проверить посмотрев доры) и видите сколько он приносит(саппорт подтверждает статистику).

Покупателям покажу примеры аналогичных ранее сделанных сайтов в индексе Яндекса. Такие сайты(на нулёвых доменах) приносят в сапе от 5-10 р в стуки.

Будут в наличии 3 дня:

- Сайт без домена. 418 html стр. Копипаст. Строительство. 140 р

- Сайт без домена. 402 html стр. Копипаст. Строительство. 140 р

- Сайт без домена. 386 html стр. Копипаст. Строительство. 140 р

- Сайт без домена. 422 html стр. Копипаст. Строительство. 140 р

- Сайт без домена. 398 html стр. Копипаст. Строительство. 140 р

- Сайт без домена. 406 html стр. Копипаст. Строительство. 140 р

Если забираете все, отдам за 700 р.

Снова делаю на генерированном тексте + немного копипаста:

1000 страничный сайт - 90 р

.:nbd:., ещё раз, спасибо, за помощь и разъяснения. Фавиконки в большинстве случаев заливает нормально.

rushter, а RB умеет в каком-то другом режиме их заливать?

Чтобы новую тему не создавать. В "Выделение кеев в тексте" отмечаю только "<i>"(или любое другой тип выделения кея), в результате часть кеев выделена, часть нет, всё нормально. Затем запускаю этот же конфиг в пакетном режиме, в результате все кеи выделены. У кого-то такое было, как решали?

Ещё. "Список заданий:" не сохраняет больше 99 строк. Это баг или фича?

Заранее благодарен за ответы.

Взял акков, получил бонусы. Магазином доволен)

4arger, спасибо). Последний вариант работает, страницы с редиректом идут в not200.txt.

puika, в режиме скана списка урлов, парсер бегает во внутренним ссылкам на странице и парсит их. И, если я правильно понял хелп, это не отключается. А результаты он экспортирует только в свой формат, т.е. нужные результаты выцепить не получается.

When running a scan for URL list, it is not possible to exclude "external" links from the scan like when checking a single URL!

4arger, залил на хостинг, запускаю, жду, result.txt не пополняется. Скрипт кладёт урлы в result.txt только если от них ответом приходит 404 ошибка? А хостиги, на которых лежат проверяемые сайты, в случае отсутствия файла или блокировки сайта, редеректят на свою страницу. Там и пишут, что "404 ". Но самого кода ошибки нет. Что нужно подправит в скрипте, чтобы он клал урлы в result.txt, если находит на странице какой-то текст(под каждую партию разный).

Всего: 154