- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На новый год гугл "порадовал" предупреждением о ПО на сайте. ( нет это не партнерка )
Стоит ли применить клоакинг на ссылки скачивания? прокладки, домены я пока отметаю. интересует следующее
при отключенной метрике, с браузеров все равно же регистрируются клики, и даже если подгружать с ajax они по сути будут рабочими для хрома, и ПС такие ссылки все равно найдет. или нет?
Google очень хорошо читает JS. Если хотите чтоб ссылки оставались но не виделись гуглом то прячьте их под капчу, делайте доступными только зарегистрированным юзерам или хитрый AJAX через внешний JS скрипт с обязхательным кликом по кнопке и проверкой айпишника - можно запретить гуглботам видеть что хранится за скриптом
можно запретить гуглботам видеть что хранится за скриптом
ну это и есть клоакинг :D правда чутка продвинутее и белее, чем обычно дорвейщики делают
можно запретить гуглботам видеть что хранится за скриптом
Можно запретить только индексировать это и то на усмотрение поисковика, запретить им видеть это нельзя.
Можно запретить только индексировать это и то на усмотрение поисковика, запретить им видеть это нельзя.
Можно, если по ip определять бота
судя по офф инфе "Теперь, с введением сканирования по географическим регионам, робот будет использовать и адреса из других стран, например из Австралии или России"
просто закрыть ему забугор не выйдет, может воспользоватся кроме юзерагента как предлагает сам гугл
revers dns , я так понимаю и дополнительно по нему прочекать типа gethostbyaddr()
базы ботов постоянно меняются, но айпишники по идее всегда должны принадлежать AS google
ну это и есть клоакинг правда чутка продвинутее и белее, чем обычно дорвейщики делают
ну я бы сказал не белее - а белое :D. Никто гугла не обманывает, не меняет данные. просто его не пускают туда куда не надо. Ну или идти совершенно белым путем - капча или отображение зареганым юзерам
---------- Добавлено 17.01.2016 в 22:41 ----------
запретить им видеть это нельзя.
Легко. гуглим "IP google ботов", загоняем их всех в массив и делаем проверочку
И все, айпишники гугла не зайдут на этот скрипт. Т.е. суть какая - на сам сайт гугл ходит без проблем, а вод увидеть что там дальше - низя. Вот не знаю будет ли гугл обижаться на это :D
боты которые не палятся
Есть пруф или это лишь догадки?
Тут дело такое, что источником информации может служить технология Safebrowsing через Хром, а не сканирующие боты.
По-моему бесполезно прятать, ну, по крайней мере у меня не получалось. Как бы не маскировал - все равно видят. JS/AJAX они считывают и понимают, я даже добавлял сессии php, редиректы и юзерагенты, в общем много вариантов, что бы бот не прочел, а пользователь прочел. Не помогло, как у клиента они видели все ссылки так и видели.
Кроме того, даже если прятать от самого бота - палят через браузеры. С IP - где-то у них же читал, что при подозрениях они могут сделать запрос полностью имитируя обычный браузер пользователя, с обычным, не маркированным собственными сетями IP. Понятно, что они не будут это делать постоянно, но достаточно один раз клоакинг им спалить и будет не очень.
aldous, дело говорит. Хром прекрасно сливает инфу в гугл. Встречали в индексе страницы, к которым бот просто физически не получал доступа. А после того как страница открылась в хроме гугл о ней узнал.