- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет.
Прошу, подскажите пожалуйста - как (и вообще нужно ли?), скрывать от индексации сквозные большие куски текста на сайте? Делаю сайт компании. На всех страницах должен будет сквозной блок с отзывами "в карусели" + еще несколько абзацев текста.
Читал, что гугл использует веб-кид, и поэтому видит страницу как пользователь со всеми AJAX подгрузками и пр. Раньше, помню подгружали то, что нужно скрыть от поисковика (сквозные блоки) с помощью AJAX и закрывали его в роботсе. Теперь похоже, если закрывать .JS фаилы в роботс.тхт, гугл уведомляет, что типа откройте доступ нашему роботу иначе ресурс не может быть полностью проиндексирован, а потому к нему нет доверия и мы его ранжировать будем ниже.
Есть ли рабочие решения этого вопроса?
Заранее спасибо за помощь!
Теперь похоже, если закрывать .JS фаилы в роботс.тхт, гугл уведомляет, что типа откройте доступ нашему роботу иначе ресурс не может быть полностью проиндексирован, а потому к нему нет доверия и мы его ранжировать будем ниже.
откуда настолько вольный перевод взялся?
http://www.unmedia.ru/noindex.html
Ну да, мой перевод излишне фривольный, прошу меня за это простить!) В источнике написано так:
Disallowing crawling of Javascript or CSS files in your site’s robots.txt directly harms how well our algorithms render and index your content and can result in suboptimal rankings.
Ссылка на статью http://googlewebmastercentral.blogspot.ru/2014/10/updating-our-technical-webmaster.html
Имхо для Гугля нет никакого решения. Если оно есть, то это временно.
Мне кажется нужно руководствоваться здравым смыслом. Если на странице слишком много "левого" контента (о котором пишет burunduk), который делает страницу неуникальной то лучше его закрыть. Хотя при этом надо понимать что Googlt если не распознает эту фишку сейчас, то распознает ее чуть позже.
Гипотетический "suboptimal rankings" (как это вообще понять?) мне как-то больше нравится чем пендель за большое количество похожих страниц (с этим как раз все ясно)
А если загружать эти блоки как при "бесконечной подгрузке", когда при достижении нижней границы контента страницы (прокрутке колесиком вниз до упора), подгружается новая порция данных. А в моем случае - блоки текста и отзывы.
У нас не будет повторяющегося контента сверху - все внизу, под основным контентом.
Такой контент гугл тоже видит? Нет информации по этому поводу? Фактически это получается подгрузка контента при совершении действий пользователя.