- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Мы начали использовать JavaScripts и CSS при обходе некоторых ресурсов для того, чтобы получить больше данных о страницах сайтов и увидеть содержимое таких сайтов в том виде, в каком оно отображается в современном браузере. Это позволяет оценить удобство интерфейса, получить контент, который ранее был недоступен роботу, и сравнить эти данные с уже используемыми при ранжировании в поиске. Если эти данные позволят предоставить пользователям нашего поиска лучший ответ по какому-либо запросу, то в ранжировании мы будем использовать именно версию, полученную с использованием JavaScripts и CSS.
В настоящий момент это происходит лишь для небольшой части сайтов и отдельных страниц, известных индексирующему роботу. Но мы постоянно следим за данным процессом и проверяем поступающую информацию, а также вносим необходимые изменения для применения этой технологии для всех известных нам сайтов в будущем, постепенно расширяя объем индексируемых таким образом ресурсов.
Поэтому мы рекомендуем владельцам и разработчикам сайтов, которые ранее закрывали файлы с JavaScripts и CSS для индексирующего робота, открыть их в robots.txt. Кроме того, стоит позаботиться о том, чтобы при обращении робота за данными файлами не возникло проблем с нагрузкой на сервер сайта.
Поскольку данный процесс только проходит тестирование, мы не можем использовать его для всех известных нам сайтов, как и предложить всем желающим вебмастерам поучаствовать в эксперименте. Но как только появится такая возможность, мы начнём индексировать все известные нам ресурсы именно таким образом.
Источник: http://webmaster.ya.ru
о, яндекс сдался под натиском адаптивности
всё, писец. теперь апы станут еще хуже. расходимся.
Не прошло и ....
хрень полная.
вновь коснется рандомом определенного процента сайтов.
после все заглохнет
хрень полная.
вновь коснется рандомом определенного процента сайтов.
после все заглохнет
Но уже выборочно ходит исполняя JS
Вслед за Google...
Ну вообще это выглядит как логичный этап в развитии поиска. Сейчас это стало актуально как никогда ранее.
И как теперь прятать текст?
Когда нас задалбывали клиенты вопросами о условиях доставки, несмотря на наличие информативного раздела, мы тупо влепили условия на все страницы. Видимо из-за того, что страницы с товарами стали сильно похожими друг на друга (> 90% текста) мы лихо просели. Когда стали выводить с помощью JS - всё нормализовалось. Теперь картинкой, чтоли, выводить?
И как теперь прятать текст?
Когда нас задалбывали клиенты вопросами о условиях доставки, несмотря на наличие информативного раздела, мы тупо влепили условия на все страницы. Видимо из-за того, что страницы с товарами стали сильно похожими друг на друга (> 90% текста) мы лихо просели. Когда стали выводить с помощью JS - всё нормализовалось. Теперь картинкой, чтоли, выводить?
Отпишите Платонам, пусть придумают, как это разрешить.
svv, по идее, должно помочь, если обернуть всё это дело в noindex...
а почему сразу с помощью этого тега не сделали, а решили скриптом выводить? или не помогло?
ps картинка - кстати, тоже вариант. тут уж точно не должно быть "засад"...