- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Для тех, кто лабает на Друпале. Пробовал скрывать блоки всякими способами, в том числе и с помощью Ajax Blocks.
Но сегодня обнаружил, что Googlebot понимает JS и видите все спрятанные блоки.
В них были рекламные объявления, не только картинки и ссылки, но и тексты.
Получается, что теперь страницы, которые продвинуты по запросам наводнены кашей из рекламных блоков.
Что с этим делать? Как заставить бота не видеть блоки AJAX?
Что с этим делать? Как заставить бота не видеть блоки AJAX?
у меня ни чего не видит www.unmedia.ru ;)
Так поделись с народом знаниями
Если я не ошибаюсь, то прятать что-либо от поисковиков в AJAX - это прошлый век. И на сегодня может нанести вред ресурсу, в плане ранжирования. Ведь Гугл самые первые научились подгружать то, что "спрятано" с помощью скриптов. К примеру, иногда в индексе проскакивает содержимое с пабликов ВК, до которого надо скролить страницу, чтобы подгрузить текст с сервера...
Не проверено конечно, как оно на практике и в наблюдениях. Но в гугл еще осенью заявили, что индексирование сайта ботом будет теперь больше похоже на типичный современный браузер и будет проводить рендеринг веб-страниц с учётом всех файлов CSS и JavaScript.
.... будет проводить рендеринг веб-страниц с учётом всех файлов CSS и JavaScript.
Так вот!!! Скажите, что делать сео-шникам??? Как спрятаться от бота?
Если я не ошибаюсь, то прятать что-либо от поисковиков в AJAX - это прошлый век. И на сегодня может нанести вред ресурсу, в плане ранжирования. Ведь Гугл самые первые научились подгружать то, что "спрятано" с помощью скриптов.
Да, бойтесь, грешники, всемощух ботов!
А если стоит конкретная задача: Исключить из поиска, а не скрыть от бота?
Так поделись с народом знаниями
Ну раз поиск по форуму забыт, закрыть скрипты в роботсе — за пределами вашего понимания (раз уж помянут великий Друпал и Ajax Blocks)
http://www.google.ru/search?q=блоки+site:unmedia.ru
Ну или попробуйте поискать по этому подопытному то, что в браузере видно, а в HTML-коде нет. Вот мне это даже проверять уже лень. И это лишь один из возможных вариантов.
ТС, посмотрите в сторону скрипта SEOHide.