- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Видел тему, только там часть скрипта обрабатывается на его стороне, не очень хочется кому-то доверять свой траф, лучше решение, которое будет стоять на своем серваке, а автор будет делать апдейты скрипта и диапазонов ip.
Тоже буду благодарен если кто-нибудь заделится инфой, интересует под гугл.
+100 тоже интересно готовое решение.
Ух бля, не думал, что на серче одно нубье. Не понимать, что такое клоакинг... спасибо за минус.
Для начала бы научились делать дорвеи, а потом умничайте, что такое клоакинг :)
Видел тему, только там часть скрипта обрабатывается на его стороне, не очень хочется кому-то доверять свой траф, лучше решение, которое будет стоять на своем серваке, а автор будет делать апдейты скрипта и диапазонов ip.
Тоже буду благодарен если кто-нибудь заделится инфой, интересует под гугл.
И правильно делает человек, что обрабатывает данные на своей стороне. Никто вам достоверные данные по ботам не даст. Хотя, смотря какие данные. Если примитивный набор корпоративных IPшников поисковиков, то вот нате вам бесплатно:
гугл: http://www.db.ripe.net/whois?form_type=advanced&full_query_string=&searchtext=GOOGLE&do_search=Search&inverse_attributes=None&ip_search_lvl=Default%28nearest+match%29&alt_database=ALL&object_type=inetnum
яндекс: http://www.db.ripe.net/whois?form_type=advanced&full_query_string=&searchtext=YANDEX-MNT&do_search=Search&inverse_attributes=mnt-by&ip_search_lvl=Default%28nearest+match%29&alt_database=ALL&object_type=inetnum
Вообще, клоачный скрипт написать как два пальца об асфальт, со школьным набором знаний сервер-сайд программинга. Позор тем сайтостроителям, которые даже этого толком сделать не могут. Только вот грошь цена такому набору адресов, ибо стандартных ботов вы отфильтруете, а хитроботов - нет.
А хитробот придет с домашней интернет-сети, представится обычным браузером, да и JS не поленится исполнить, чтобы выглядеть как реальный посетитель. Вы в своей GA или LI статистике будете радоваться этим ценным посетителям, а вашему клоакингу скоро придет кабзда. Доры с таким скриптом проживут столько же, сколько и доры с открытым редиректом, а точнее говоря почти нисколько, в яше 1-2 апа.
Хорошая база адресов всех ботов вряд ли продается. Может, только своим, очень дорого и под клятву о нераспространении. Я со своей командой собирал базу по крупицам больше года, и то уверен, что обладаю далеко не полным набором всех адресов.
Работа тяжелая, но попробовать может каждый. Начните хотя бы с рамблера. У него хитробот вообще примитивный, вычислить его можно, прочитав пару логов более-менее посещаемого сайта. У гугла (в ру-сегменте) немного сложнее. Яндекс самый хитрый, но так и должно быть в силу его популярности среди пользователей и оптимизаторов.
goldprofit,
самое простое: возьми любой дор в выдаче клоаченный и обратись к хуцкерам, которые шеллами торгуют, попроси доступ к шеллу(если разрешит, иначе заплатить придется за шелл). Заходишь и сливаешь нужный скрипт. А если хуцкерить умеешь сам, то все упрощается.
Pentium Prescott добавил 20.08.2010 в 13:06
Ух бля, не думал, что на серче одно нубье. Не понимать, что такое клоакинг... спасибо за минус.
Для начала бы научились делать дорвеи, а потом умничайте, что такое клоакинг :)
то, что ты в своем первом посте в топике написал - полнейший бред и минус влепили справедливо.
Ух бля, не думал, что на серче одно нубье. Не понимать, что такое клоакинг... спасибо за минус.
Для начала бы научились делать дорвеи, а потом умничайте, что такое клоакинг :)
Почитай на досуге, то что ты описал к клоакингу не относится вообще, это сокрытие части контента (стилями, сдвигом, перекрытием другим контентом и т.д.) на странице и применяется оно исключительно в эстетических целях, дабы не мозолить глаза юзерам тоннами говна. А вообще, учи теорию, дабы так не палиться. Хотя, что я с тобой разговариваю? GTFO и Ошпаренного с собой прихвати, гуру мля :D
Ну этого не достаточно, нужно еще прикрутить проверку ип-адреса (ипы ботов можно собрать с логов доров), реферера (проверять пришел ли юзер с поиска или нет), юзер-агента (проверять на вхождение сигнатур ботов), запроса (ну эта проверка не обязательная, но желательная и все зависит от структуры самого скрипта, если он отдает контент по урлам вида ?page=1, то ее можно не делать, а если ?page=viagra, то лучше проверить) и т.д., но написать такой скрпит действительно не такая уж проблема. Ну и разумеется, если рес не ваш (например, друга) то проверять request uri не будет лишним, иначе друг обидится увидев всместо страниц своего уютненького бложика ваш дор.
я предположил, что все это есть у тс
Спасибо, а то я 3 года сидел и не знал что такое клоакинг :D
Спасибо, а то я 3 года сидел и не знал что такое клоакинг :D
за что сидел?
Клоакоаэээээ, о я ебу
за что сидел?
за клоаку :D
While we were indexing your webpages, we detected that some of your pages were using techniques that are outside our quality guidelines, which can be found here: http://www.google.com/support/webmasters/bin/answer.py?answer=35769&hl=en. This appears to be because your site has been modified by a third party. Typically, the offending party gains access to an insecure directory that has open permissions. Many times, they will upload files or modify existing ones, which then show up as spam in our index.
We detected cloaking on your site and suspect this is the cause. For example at http://**********.com/ we found:
...тут пару абзацев на тему виагры...
For more information about what cloaking is, visit http://www.google.com/support/webmasters/bin/answer.py?answer=66355&hl=en.
In order to preserve the quality of our search engine, pages from **********.com are scheduled to be removed temporarily from our search results for at least 30 days.
We would prefer to keep your pages in Google's index. If you wish to be reconsidered, please correct or remove all pages (may not be limited to the examples provided) that are outside our quality guidelines. One potential remedy is to contact your web host technical support for assistance. For more information about security for webmasters, see http://googlewebmastercentral.blogspot.com/2008/04/my-sites-been-hacked-now-what.html. When such changes have been made, please visit https://www.google.com/webmasters/tools/reconsideration?hl=en to learn more and submit your site for reconsideration.
Sincerely, Google Search Quality Team
:D