ESG 11
+ распознавание более 10 языков
+ ускорение в 5-10 раз по отношению к предыдущей версии
остальная часть описания при релизе.
как так, профи добычи трафика и без знаний где добыть столь заурядную информацию? или вы только троллить умеете а поиском не судьба научится пользоватся ?
ESG 1071
Конвертор WP -шаблонов.
- Исправлен неудобный момент при добавке URL ресурса WP -шаблона ( в конце был обязателен слэш , теперь этот момент не влияет на результат ) .
- Исправлена основная часть ошибок HTML -валидации в сконверированном WP -шблоне .
ESG 1075
Работа с прокси :
- указывется ( on/off ) из Dashboard
- SOCKS5 + HTTP
- путь : /data/proxy/proxy_lists.txt
Исправлена настройка диаппазона количества генерируемых старниц из Dashboard .
ESG 1082
+ ускорена работа интерфейса .
+ подготовка к внедрению новых функций .
autodidact, а если что-то подобное разрабатывать то какие бы моменты следовало учесть или хevil уже всё необходимое умеет, я как понял основная фишка Xr-софта в том что он проходит каптча-защиты, сами форумы я смотрел, сложно но не н столько чтоб вызывать трудности о которых стоило бы вообще вести речь. Собственно интересно что ещё им улучшить можно.
Есть очень интересный вариант набрать из выдачи URLв ресурсов и площадок на которые нужно осуществить простановку и написать под каждый свой постер с ротацией, учитывая что технология написания постеров неплохо шаблонизируема - пройти 100 ресурсов реально за 3-4 дня, по факту для аналогичных целей достаточно 10-15 движков уметь проходить. Конечно данный вариант предполагает налчие необходимых компетнций в области программирования, а также умения и желания работать, поэтому не знаю насколько актуален для вас данный вариант.
Я из-за городов отказался от баз, нормальную пока не нашел, но есть вариант собрать свою, в плане актуальности они вообще слабые, приведенную также тестировал - на мой взгляд в среднем 65% достоверность подобных баз.
По 2м базам - это вы по теории вероятности ссумируете погрешнсть обеих баз, я делаю иначе, у меня не интегрирующая а последовательная схема на жесткой логике, то есть в случае непробива по IP-бд - отправялтся запроса на внешни сервис чекер адресов, таким образом выбирается вариант с минимальным отклонением от фактического то есть вероятность погрешности минимизируется
Ассиметричное криптование реализация на JS-php, мозговыносящая но белая схема, юзаемая рядом известных сервисов, по сути это даже не клоакинг а защита выдачи, но клоакинг идёт уже бэкфункционалом как побочный эффект этой схемы.
В софте моём кстати есть данная схема (не реклама, так кстати, ничего не навязываю вобщем).
Если интересуют подробности по схеме - шли скайп в ЛС, можем пообщаться.---------- Добавлено 29.07.2017 в 01:09 ----------
... что ты косишь под ряженного персонажа на твоей аватрке, смешно смотреть когда так исполняют.---------- Добавлено 29.07.2017 в 01:11 ----------
это из какого романа? что-то интересненькое из 18+ ?---------- Добавлено 29.07.2017 в 01:13 ----------
По вопросам клоакинга вы можете обратиться в ЛС, интересен ваш профессиональный опыт.---------- Добавлено 29.07.2017 в 01:25 ----------
Я анлизировал персонажей вроде него и пришел к выводу что это экстравертный тип с акцентуацией шизоидного типа, сейчас в психологии популярно обсуждение так называемого энерговампиризма - это люди прибегающие к различным приёмам чтобы завладеть вашим вниманием и прожечь как можно больше чужого времени. Что это им даёт для меня до сих пор загадка, возможно для повышения самооценки или какие-то другие потребности закрывают вроде тренировки вести спор... вобщем неясно)) Лучший способ реакции - никакой реакции, в ином случае вы можете от него не отделаться целую вечность, это весьмасложносошкребаемый психотип.---------- Добавлено 29.07.2017 в 01:38 ----------
Да Fb сейчас популярная тема для клоакинга, в зарубежном вэбе по крайней мере.
по геоипу есть базы и расширения готовые, но их актуальность лично у меня вызывает некотрые сомнения, потому я бы брал альтернативный источник для проверки в вде набора сервисов чекинга адресов с постояннообновляемой базой.
также рабочий вариант фильтрования ботов - это отдача через проверку условия, генерируемого сложным яваскриптом, но не все решения подходят а то что использую я довольно сложно в технической реализации и нет исчерпывающих статистических данных относительно того что поисковый бот в 100% случаев не обходит защиту.
ini_set( "display_errors" , 1 ); error_reporting( E_ALL / ^ E_DEPRECATED ^ E_NOTICE ); set_time_limit( 0 ); ini_set( "memory_limit" , "1512M" ); header( "Content-Type: text/plain;" ); /** * site URL */ $site_url = "site.com"; $site_url = "http://" . $site_url; /** * first request to site */ $main_page_content = file_get_contents( $site_url ); if ( strlen( $main_page_content ) != 0 && !empty( $main_page_content ) ) { $aregxp = "<a.+?href\s*?=['"](\S+?)['"] [^>]>"; preg_match_all( $aregxp , $main_page_content , $page_self_urls_conds ); $filtrated = array( ); foreach ( $page_self_urls_conds as $url ) { if ( stristr( $url , $site_url ) OR $url[0] == "/" ) { $filtrated[ ] = $url; } } $max_requests_count = 1000; $used_urls = array( ); $filtrated = array_unique( $filtrated ); while ( count( $filtrated ) || $max_requests_count != 0 ) { $max_requests_count--; $page_content = file_get_contents( $site_url ); if ( strlen( $main_page_content ) != 0 && !empty( $main_page_content ) ) { preg_match_all( $aregxp , $main_page_content , $page_self_urls_conds ); foreach ( $page_self_urls_conds as $url ) { if ( ( stristr( $url , $site_url ) OR $url[0] == "/" ) AND !in_arry( $url , $filtrated ) AND !in_array( $url , $used_urls ) ) { $filtrated[ ] = $url; } } } $used_urls[ ] = $site_url; $result = implode( "\r\n" , array_map("trim" , $filtrated ) ); $fp = fopen( "result.txt" , "w" ); fwrite( $fp , $result ); fclose( $fp ); unset( $fp , $result ); } } exit( 0 );
+ дебаг, если нужен, так как набирал прям в окне сообщения.
Я обычно при поиске кеев в таких случаях делаю следующим образом:
- находится список признаков сайтов на той же технологии (автогенерированных) в СЧ-НЧ топах по теме.
- как правило ВП или/и бонусники.
- дальше под них пишется бот который ходит по выдаче и по расширяющемуся списку кеев собирает базу, фильтруя через стоплист.
С сервисами + иногда быстрее, иногда удобнее, но нерентабельно в долгосрочной перспективе, хуже отсев, но в тоже время есть вероятность выловить какой-нибудь кей ещё не заюзанный в конкурентских лендах.
Давно хочу сопоставить рентабельность покупки на сервисах и свой способ, но ещё не выделил на это время, думаю покупка проигрывает в рентабельности раза в 3 не менее из рачёта оплаты собственного времени как программиста по 10$ час.
это можно сделать списком несложных регулярок, но нужен небольшой PHP скрипт.