- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
1)Кто знает как работает проверка клоакинга у яндекса?
а)Сотрудники сами проверяют по жалобам конкурентов.
б)Существует робот который грузит якобы все то, что пользователь и проверяет на скажем 95% (может больше) совпадение сохраненной копии обычного бота.
2)Банит ли гугл за клоакинг, и как он определяет его наличие?
3)И как боты поступают со скрытым дивом, в котором может быть спрятано как подменюшка, которая вылезает при наведении, так и всякий грязный спам и куча ссылок? Как определяют и банят за это?
Кто знает как работает проверка клоакинга у яндекса?
Есть робот. Как работает, мне неизвестно.
Вполне возможно, что по стуку могут проверить руками.
Банит ли гугл за клоакинг, и как он определяет его наличие?
Банит. Определяет, скорее всего, тоже автоматом.
И как боты поступают со скрытым дивом, в котором может быть спрятано как подменюшка, которая вылезает при наведении
В зависимости от того, отрабатывает бот javascript (вылезание при наведении ведь через него сделано?) или нет. Соответственно, индексирует или нет.
Как определяют и банят за это?
Автоматически и по стуку - когда как.
Radli, а Вы кого-то обманывать задумали? Мне кажется, делать белые сайты спокойнее и в некоторых случаях выгоднее.
Я абсолютно не собираюсь обманывать поисковики, но хочу разобраться.
Банит. Определяет, скорее всего, тоже автоматом.
Как определяет?
В зависимости от того, отрабатывает бот javascript (вылезание при наведении ведь через него сделано?) или нет. Соответственно, индексирует или нет.
Да вылезание через функции jаvascript, но не важно отрабатывает он их или нет, главное что в html-коде есть часть текста который бот точно индексирует, но его может и не видеть пользователь.
Пример: дивом спрятал сообщения об ошибках при заполнении формы, если пользователь заполнит неверно, тут же этот див статновится видимым и пользователь видит ошибку. Но бот содержимое этого дива все равно проиндексирует, а пользователь может и не увидеть никогда.
Получается, вроде как клоакинг, или я ошибаюсь? С др. стороны для людей это сделано.
Понятно что человек за это банить не будет. Но как бот может определить - что в этом диве: спам кл. фраз или действительно, то что то нужно при определнных действиях пользователя?
Как определяет?
К примеру, выкачивает страницу, представляясь не ботом, но человеком. Сравнивает с тем, что дано боту. Делает выводы.
бот содержимое этого дива все равно проиндексирует, а пользователь может и не увидеть никогда.
Получается, вроде как клоакинг, или я ошибаюсь?
Клоакинг - выдача боту и пользователю разного контента. Насколько мне представляется, выпадающие менюшки клоакингом не являются.
1)Кто знает как работает проверка клоакинга у яндекса?
Также как и везде: есть специальный робот, который выходит на охоту в темное время суток и пока вебмастера спят... банит их, банит... :)
Ну а если серьезно, то что такое клоакинг? Это выдача разного содержимого пользователю и роботу по IP адресу или по UserAgent. Если это содержимое одинаково для пользователя и для робота, то это просто спам, а не клоакинг. Поэтому скрытый текст никак клоакингом назвать нельзя.
Как работает робот? Точно это знаю лишь его создатели. Общий принцип - робот запрашивает содержимое странички сначала с официальным UserAgent и IP, а потом с "неофициальным" (сразу же) и сравнивает.
И сверяет он не содержимым сохраненной копии, а с текущим содержимым странички, но полученным с другого IP. Потому что если бы он сверял с сохраненной копией, то тогда бы всё динамическое содержимое страницы (например, новости, которые могут обновляться каждую минуту) попадали бы под бан.
Общий принцип - робот запрашивает содержимое странички сначала с официальным UserAgent и IP, а потом с "неофициальным" (сразу же) и сравнивает.
Да, согласен я тоже так думал.
Но как вы думаете, чем именно тот бот-человек отличается от обычного бота, только юзерагентом и ип? Если только этим, то легко обходится и ему можно выдать тоже самое что другому. А вот если он начнет грузить ... то тут уж ДА!, некуда не денешься. Но тогда и смысл в простом боте отпадет и нагрузка будет ой-ё-ё.
-----
А как же со скрытыми дивами, то яндекс бориться, в которых может быть как менюшка, так и список кл. фраз, где нить под футером замостыренные.
Не ужели только по стуку?
Клоакинг - выдача боту и пользователю разного контента.
Точнее будет сказать "разного кода".
Кто нить ответить на мой вопрос:
"А как же со скрытыми дивами, то яндекс бориться, в которых может быть как менюшка, так и список кл. фраз, где нить под футером замостыренные.
Не ужели только по стуку?"
Да робот, скорее всего, просто не индексирует скрытые дивы. Определить то, что он скрытый не сложно, а, по моему роботы принципиально не индексируют контент, который не видит пользователь, дабы оный сильно не удивлялся, перейдя из серпа на сайт и не найдя глазами того, что было сниппетом в серпе.
Заставить робот проиндексировать то, что не видит пользователь можно лишь наложив див на картинку с фоновым цветом, аналогичным цвету шрифта дива. Ну может еще при помощи ухищрений CSS. В таком случае - по стуку или случайно модератор нарвется (например, проверяя сайт на предмет размещения Директа).
ИМХО
Спасибо dragonfly
Повторюсь, я не хочу как либо дурить бота, просто хочу разобрать как чо.
Из ваших размышлений получается что внутренную перелинковку (подменю) не стоит делать с помощью всплывающих дивов ибо их бот не учитывает и это очень может сказаться при подсчете pr, виц.
Из ваших размышлений получается что внутренную перелинковку (подменю) не стоит делать с помощью всплывающих дивов ибо их бот не учитывает и это очень может сказаться при подсчете pr, виц.
Совершенно верно. Если навигация построена на JavaScript (а выпадающее меню есть ничто иное как оное), то ее обязательно дублируют обычным HTML.
Еще можно использовать теги <noscript></noscript>. В случае, если у юзера будет отключен JavaScript, он не увидит вашего выпадающего меню. В таком случае кроме этого основного выпадающего меню делают обычную навигацию и закрывают ее этими тегами. В обычном режиме юзер не видит ее, а если отключит JS, то увидит. Она же служит и картой для поисковиков.