Ну, это маловероятно, конечно.
Нет никакого предприятия и судя по откликам не будет :)
Т.е. качество сервиса, с точки зрения копирования, Вас полностью устраивает?
Что? На рынке есть софт и сервисы, использование которых заведомо предполагает нарушение каких-либо прав? Для вас это новость? Тот же Teleport Pro прекрасно себя чувствует как вполне легальное ПО.
Я не вижу смысла в обсуждении правовой стороны вопроса, потому что эти разговоры являются лицемерием и троллингом.
Тем более, все эти вопросы всегда решаются в частном порядке - при обращении к новому владельцу ("абузой").
На многих форумах, например, страница регистрации может иметь параметр referer= - для возвращения на прежнюю страницу после регистрации. Из-за чего на выходе генерятся тысячи страниц, ведущие на одну и ту же регистрацию. Также, на тех же форумах, часто присутствует session_id в GET запросе, который нужно удалять, иначе эта страница заведомо не будет считаться как проиндексированная Яндексом ни одном роботом. Тут огромное количество ньюансов.
Я читал эту тему вчера, она очень интересна, но совершенно о другой услуге.
Очень хороший сервис, я несколько раз тестил его, но:
1) Не все сайты можно спарсить полностью в автоматическом режиме;
2) Не все пользователи имеют достаточного опыта, чтобы тонко спарсить сайт, если в нём есть множество ненужных страниц;
3) Автоматическое размещение ссылок там приклеивается к тегу <body>, что не очень хорошо.
4) Этот сервис не проверяет и не исправляет HTML код. Например, если на странице два тега <body> (а такое бывает не редко), то в SAPE ссылки на этих страницах безоговорочно уйдут в ERROR.
Я же предлагаю услугу, при которой человек получает полностью готовый сайт.
Проблема, как уже отмечалось в теме, с документными операторами (или как там их) - если они присутствуют в запросе, то вероятность словить капчу (неважно, какую по счету для данной сессии) стремится к ста процентам.
Все плагины, софт и т.д. используют именно их
При запросах через cURL (в PHP) - у меня стабильно возникает повторная капча уже на втором запросе...
В браузере, после провоцирования капчи, такой проблемы нет...
Очевидный ответ был в наличии JS (или любой другой клиентской проверки), но я его опроверг. Значит, дело в каких-то специфических заголовках :(
Продублируйте, если не сложно, потом ответ в эту тему.
Хотя, есть подозрение, что ответ будет шаблонным =)
Присоединяюсь к вопросу. Уже более двух месяцев пытаюсь склеить группу сайтов (пока результат нулевой)
Часть сайтов сделал hosts + 301, часть - полная копия (зеркало) + hosts
Открытого api там, если не ошибаюсь, - нет. У меня реализация на cURL с POST-запросом.
В описанном классе имеется метод, который парсит html-код новости на предмет ссылок на картинки, загружает их на фотохостинг и возвращает html-код с новыми путями.
Если заинтересует - пишите в личку)
За 20 баксов готов продать свой класс.)