Да, очевидные плюсы имеет.
Думаете, если с нашими "бизнес-процессами" будут совпадать на ~50%, то наш сервис не подойдет?
Хм. Думаете, что наш сервис подходит только "для слива траффика из FB"?
А для "для слива траффика из VK" он уже не годится?
Почему?
А можно уже сейчас, не дожидаясь нескольких лет узнать о "преимуществах API перед включением каких-либо файлов"?
Хотя бы тезисно.
Недостатки я и сейчас вижу. Но, на мой вопрос, который я ранее Вам задавал о преимуществах Вы так и не ответили.
Да, мне очень интересно.
Я внимательно посмотрел то, что Вы рекомендуете.
Разумеется, мы все это легко можем реализовать, т.к. на данный момент наш сервис на порядок сложнее и функциональнее того примитивного API, который Вы описали.
Да, я понял. Т.е. мы кастрируем ту функциональность, которая у нас есть сейчас, выбрасываем все, на наш взгляд, интересные функции, которые мы сделали исходя из опыта нескольких лет использования клоакинга.
Остается только получить ответ на вопрос "ЗАЧЕМ?".
С нетерпением жду от Вас ответа на него.
Ваше мнение тоже очень важно для нас.
Если Вас не затруднит, аргументируйте, пожалуйста, почему Вы считаете, что наш сервис клоакинга нельзя использовать "для слива траффика из VK", а можно только "для слива траффика из FB"?
Мне реально интересно услышать ваше объяснение.
Причина, что невозможно 100% отловить бота?
Так мы к этому и не стремимся.
Сервис мы делали под свои задачи. Сейчас просто решили сделать его публичным.
Клоакинг нам нужен был, чтобы рекламить дэйтинг по группам Фэйсбука. ФБ к дэйтингу крайне негативно относится.
Зато теперь наши посты практически не банятся.
Мы, кроме того, что фильтруем ботов по своей базе:
1. Не используем редирект, а просто вставляем код рекламного "пузыря" в контент страницы. Ботам, естественно, выдаем контент без рекламы, но, если какой-то "тайный" бот все-таки прорвется, то, он увидит минимальные изменения контента страницы.
2. Не клоачим первых 5 посетителей рекламируемой страницы. А в эту пятерку как раз попадают админы групп, которые аппрувят посты. И, их ИП автоматически заносятся в базу и в дальнейшем тоже никогда не клоачатся.
3. Клоачим только штатовцев, ибо только за них нормальные деньги платят.
4. Кого уже склоачили по данному посту, в будущем больше не клоачим.
Думаю, поэтому на наши посты жалоб практически не поступает.
Для этого нам и нужен такой сервис клоакинга.
Надеюсь, он сможет помочь зарабатывать и другим.
Честно говоря, не вижу никакой гибкости и современности.
У нас система клоакинга проста, как грабли:
1. Закачиваешь на свой сайт наш скрипт, который вставляешь инклюдом в индексный файл. Он тупо сообщает всю инфу о посетителе скрипту принятия решения о клоакинге на нашем сервере.
2. Закачиваешь на свой сайт файлики с контентом для клоакинга, который либо подменяет контент всей страницы, либо вставляет этот контент в страницу при клоакинге.
Все. Больше никаких действий со своим сайтом производить не надо.
3. Заходишь в админку сервиса через веб и настраиваешь хренову кучу параметров, для разных посетителей. Не буду приводить их все, но, их реально много. Есть блэклист, можно создавать много наборов правил для разных случаев, можно пробивать ботов по нашим базам и т.п.
4. В этой же админке смотришь статистику кого, куда, сколько и по какому набору правил отклоачили или по какой причине не отклоачили.
Где здесь место для API и зачем оно нужно?
Если все управление клоакингом идет через админку.
У нас и так есть возможность управлять множеством параметров через вебинтерфейс.
Чем API лучше вебинтерфейса?
Мы не ставили себе задач сделать TDS. У нас сервис клоакинга с расширенными возможностями. Функциональность мы делали исходя из наших интересов. Но, можем сделать любую функциональность, которую вообще можно сделать с помощью языков программирования.
Будут какие-то предложения по возможностям, которых у нас нет в данный момент, предлагайте. Если это будет интересно многим, сделаем без проблем.---------- Добавлено 23.07.2017 в 23:27 ----------
А чего их проверять? По нашей базе ботов мы отслеживаем, думаю на 99,9%
100% гарантии отлова ботов не сможет дать никто.
Мы увеличиваем шансы не попасться боту (модератору, админу) дополнительными возможностями.
Например, как я уже писал выше, запоминаем первых посетителей, которые пришли по данному набору правил и никогда их не клоачим. Вероятность, что в первых рядах будет бот (модератор, админ) весьма высока.
Также, у нас есть, например, временные задержки начала клоакинга, после первого срабатывания набора правил. И т.д.
У нас и так вебмастер имеет полный контроль над клоакингом. Настраивается все.
Если дело пойдет, то, конечно, будем следить за своевременными обновлениями.
Пока о продажах даже не думали. Но, думаю, что цена где-то такая и будет. В любом случае цена будет увеличиваться в зависимости от увеличения количества запросов к сервису. Но, пока о продажах еще рано говорить.
API не будет. Предлагается в начале индексного файла инклюдом вставить наш php файл, который просто до выдачи контента отсылает данные посетителя в наш сервис.
Все настройки клоакига производятся через вебинтерфейс. Там же, в админке, будет вся статистика клоакинга.
После, этот php файл получает от сервиса решение, клоачить данного посетителя или нет.
Клоакинг может быть:
- редирект на заданный УРЛ,
- полная замена контента,
- вставка своего контента в определенную часть вебстраницы.
От нагрузки может лечь любой сервер. Постараемся отслеживать нагрузку и добавлять новые мощности в случае необходимости.
Пока тестировали на своем трафе где-то около 50К запросов в сутки.
На этом трафе нагрузка почти нулевая.
Время отработки скрипта принятия решения при включении всех фильтров около 0.05 сек. С отключением многих фильтров 0.02 сек.
Кстати, в статистике время работы скрипта есть, т.ч. вебмастера сами могут смотреть, насколько клоакинг задерживает выдачу контента.
Ну, без предоставлению сервису данных о посетителе сервис просто не сможет работать.
Кому сильно надо будет, без проблем продадим скрипты и настроим их и БД.
Но, только без интерфейса. Интерфейс к БД пусть сами прикручивают. А вообще мы сами софтинку HeidiSQL пользуем. ИМХО, лучше всяких вебинтерфейсов.
Пока у нас есть только то, что нужно было нам самим.
Например, запоминаются и не клоачатся первые IP адреса посетителей.
Когда в ФБ в группе публикуешь объявление, то оно не видно, пока модератор не разрешит его. Соответственно, его IP будет в числе IP первых посетителей.
В принципе, в дальнейшем мы можем организовать любые алгоритмы.---------- Добавлено 23.07.2017 в 19:49 ----------
ИМХО, у нас удобнее реализовано.---------- Добавлено 23.07.2017 в 19:54 ----------
Допиливать что?
Да. Можно сказать: "чукча не писатель, чукча - читатель".
Ядро команды - русскоговорящие. Сервера, правда, все за бугром.
Можно и так сказать. Сами свой сервис используем давно, но, публичный сервис клоакинга решили сделать впервые. Основной геморрой как раз с интерфейсами управления и документацией.
В данный момент сам сервис в основном работает, почти все крупные глюки поправили и занимаемся составлением руководств.
Кстати, если у кого будет желание потестировать сервис в том виде, в каком он сейчас (почти без доков, но, кто в теме, разберется с моей помощью) и высказать что можно "улучшить и углубить", а также подправить, если будет нужно, велком в Скайп: live:4e48e4a4f51365c4 .
Если в открытом доступе, поделитесь плз ссылкой, интересно будет сравнить.
Кстати, думаю, что если это база именно 1М IP адресов, то, она эквивалентна нашей базе 35К подсеток.
Обязательно будет.
Об этом не думали.
Вопрос составлял я лично. Если не секрет, что в вопросе дало повод для подобных ассоциаций?
Интерфейс сейчас делаем на двух языках с переключением вручную: Английский и Русский.
Немного не понял, что значит "с поддержкой Яндекса"?
Если Вы имеете ввиду, определяет ли наш клоакинг боты Яндекса, то да, если речь идет о публичных ботах (а не всяких шпионах, прикидывающихся людьми).
У нас есть две базы ботов (в том числе и ботов Яндекса). Всего приблизительно 35000 записей:
- На основании User Agent.
- На основании подсеток IP адресов.
Проверка на "ботовость" может проходить (можно включить или выключить в настройках) в два этапа:
Сначала UA посетителя прогоняется по первой базе, если не найден,
то IP посетителя прогоняется по второй базе.
Базы потихоньку пополняются.
Думаю, что где-то 99.9% всех ботов мы определяем.
deltahost.com.ua, globalmoney, несколько вопросов:
1. Самый дешевый VPS по какой цене можете предложить?
2. Будет ли возможность в дальнейшем заменить IP на купленном VPS на IP из других подсеток?
3. Даете ли в довесок бесплатно /64 IPv6?
Заранее благодарю за ответы.
Спасибо. Пойду разбираться.
Спасибо, но, как я понимаю, это программа в данный момент не работает:
http://textkit.ru/buy/
"Продажа новых копий программы приостановлена."
А что-нибудь еще типа этого, но, попроще?
Не нужна многофункциональность и управление контентом кучи сайтов.
Привет всем!
СтоИт такая задача:
Есть база текстов в формате html.
Нужно для каждого текста создать свою страничку и разместить там этот текст.
Естественно, для большого количества создание страничек вручную неприемлимо.
Есть ли какое-то готовое решение в виде плагина / отдельного скрипта / сервиса?
Лучше бесплатное.