Sergey Gr.

Sergey Gr.
Рейтинг
48
Регистрация
21.10.2008
wek000:
Такое ПО будет очень полезно, на случай если утеряны все исходники, владельцем этого домена.
В данном случаю все законно.

Ну, это маловероятно, конечно.

NauMI:
Все правильно, Sergey Gr. Любая критика - лицемерие и троллинг. Даешь одни комплименты в треде.

Упомянутый Вами "Teleport Pro" дает возможность скачать сайт, Вы же хотите продавать чужую собственность. Не видите разницы? И я не об этической стороне вопроса (сам подбирал дропы), а о том, что Ваше предприятие незаконно.

Нет никакого предприятия и судя по откликам не будет :)

Не знаю, какой-то Вы нежный, у меня таких проблем не было, всё отлично работает. Единственный минус для - создает свою иерархию файлов и каталогов, на движок никакой не натянешь для дальнейшего развития.

Т.е. качество сервиса, с точки зрения копирования, Вас полностью устраивает?

NauMI:
В чем разница-то? В доп. плюшках? Суть та же - Вы собираетесь торговать копиями чужих сайтов, т.е. чьей-то собственностью.

Что? На рынке есть софт и сервисы, использование которых заведомо предполагает нарушение каких-либо прав? Для вас это новость? Тот же Teleport Pro прекрасно себя чувствует как вполне легальное ПО.

Я не вижу смысла в обсуждении правовой стороны вопроса, потому что эти разговоры являются лицемерием и троллингом.

Тем более, все эти вопросы всегда решаются в частном порядке - при обращении к новому владельцу ("абузой").

87793:
Какие страницы понимаются под "мусорными"? 😕

На многих форумах, например, страница регистрации может иметь параметр referer= - для возвращения на прежнюю страницу после регистрации. Из-за чего на выходе генерятся тысячи страниц, ведущие на одну и ту же регистрацию. Также, на тех же форумах, часто присутствует session_id в GET запросе, который нужно удалять, иначе эта страница заведомо не будет считаться как проиндексированная Яндексом ни одном роботом. Тут огромное количество ньюансов.

Баян - /ru/forum/834255. Востребованность так себе.

Я читал эту тему вчера, она очень интересна, но совершенно о другой услуге.

Я пользуюсь готовым сервисом - r-tools.org, снова изобретать велик не вижу смысла.

Очень хороший сервис, я несколько раз тестил его, но:

1) Не все сайты можно спарсить полностью в автоматическом режиме;

2) Не все пользователи имеют достаточного опыта, чтобы тонко спарсить сайт, если в нём есть множество ненужных страниц;

3) Автоматическое размещение ссылок там приклеивается к тегу <body>, что не очень хорошо.

4) Этот сервис не проверяет и не исправляет HTML код. Например, если на странице два тега <body> (а такое бывает не редко), то в SAPE ссылки на этих страницах безоговорочно уйдут в ERROR.

Я же предлагаю услугу, при которой человек получает полностью готовый сайт.

Проблема, как уже отмечалось в теме, с документными операторами (или как там их) - если они присутствуют в запросе, то вероятность словить капчу (неважно, какую по счету для данной сессии) стремится к ста процентам.

Все плагины, софт и т.д. используют именно их

basterr:
Это часто? У меня через каждый 2-5 запрос.

При запросах через cURL (в PHP) - у меня стабильно возникает повторная капча уже на втором запросе...

В браузере, после провоцирования капчи, такой проблемы нет...

Очевидный ответ был в наличии JS (или любой другой клиентской проверки), но я его опроверг. Значит, дело в каких-то специфических заголовках :(

kostik789:
А на сайте платона написано 1-1,5 месяца. Я жду два месяца точно, если не три. Отписал в техподдержку Яндекса.

Продублируйте, если не сложно, потом ответ в эту тему.

Хотя, есть подозрение, что ответ будет шаблонным =)

Stop-TussiN:
Подскажите, чтобы склеить ЯК, нужно именно через host клеить или можно и через 301 редирект?

Ждал два месяца склейку (делал через host) - изменений никаких.

Присоединяюсь к вопросу. Уже более двух месяцев пытаюсь склеить группу сайтов (пока результат нулевой)

Часть сайтов сделал hosts + 301, часть - полная копия (зеркало) + hosts

Miracle:

класс :)
да там имея ип и без классов то писать нечего :)
лучше киньте ссылку на их api

Открытого api там, если не ошибаюсь, - нет. У меня реализация на cURL с POST-запросом.

В описанном классе имеется метод, который парсит html-код новости на предмет ссылок на картинки, загружает их на фотохостинг и возвращает html-код с новыми путями.

Если заинтересует - пишите в личку)

За 20 баксов готов продать свой класс.)

Всего: 123