DimkaKD

Рейтинг
9
Регистрация
08.07.2013

Например такой:

Декор пруда: подводный светильник, насос фонтанный, корзина для высадки водных растений, посадочная ткань. Купить насос фонтанный, светильник подводный в Минске, Гродно, Бресте, Витебске, Гомеле, Могилеве и почтой по всей Беларуси с доставкой.

И вот это вот вылазит в сниппете, хотя на странице есть нормальный, человеческий текст. Этот дескрипшн один из старых, но он ещё есть на странице. Сейчас я их переделал на более читабильные.

Будет ли возможность добавлять для слов посадочную страницу (по которой хотел бы получать результаты). Например как в allposition?

sergoseo:
Во-во!

Тут многие мозг себе на изнанку выворачивают, лишь бы Яша делал сниппет из дескрипшена. Так что считайте, что Яша до вас снизошел:)

А если серьезно, то в сниппет попадает текст из описания, если оно грамотно составлено (с точки зрения поисковика) и там есть ключи.

Проблема то собственно не в этом. Просто дескрипшен составлялся больше под робота, а текст на странице - для людей. И там и там есть необходимые вхождения, ключи и т.д. Просто до июня, почти все сниппеты были из текста на странице, теперь из дескрипшен. Сейчас у меня такое впечатление сложилось, что он просто перестал индексировать/учитывать страничный текст. (текст на странице свёрнут в ява скрипте, но роботу отдаётся без скрипта)

maverik2412:
Такая ситуация:

URL: http://www.site.ru/catalog/cat_2/cat_26/?p

Решит ли мою проблему, если я в роботсе пропишу:

User-agent: *
Allow: ?podbor_po=parametram&trademark_id=152
Disallow: *podbor_po=*

Или как правильно это все реализовать.
Заранее благодарен за помощь!

Пример от Яндекса в его помощи

Совместное использование директив.

Директивы Allow и Disallow из соответствующего User-agent блока сортируются по длине префикса URL (от меньшего к большему) и применяются последовательно. Если для данной страницы сайта подходит несколько директив, то выбирается последняя в порядке появления в сортированном списке. Таким образом порядок следования директив в файле robots.txt не влияет на использование их роботом. Примеры:

# Исходный robots.txt:

User-agent: Yandex

Allow: /catalog

Disallow: /

# Сортированный robots.txt:

User-agent: Yandex

Disallow: /

Allow: /catalog

# разрешает скачивать только страницы,

# начинающиеся с '/catalog'

# Исходный robots.txt:

User-agent: Yandex

Allow: /

Allow: /catalog/auto

Disallow: /catalog

# Сортированный robots.txt:

User-agent: Yandex

Allow: /

Disallow: /catalog

Allow: /catalog/auto

# запрещает скачивать страницы, начинающиеся с '/catalog',

# но разрешает скачивать страницы, начинающиеся с '/catalog/auto'.

Важно. В случае возникновения конфликта между двумя директивами с префиксами одинаковой длины приоритет отдается директиве Allow.

ПЫ.СЫ если вам нужно открыть только 1 страницу, то в принцепе лучше прописать полный путь, то есть так:

Allow: /catalog/cat_2/cat_26/?podbor_po=parametram&trademark_id=152

Видимо я неправильно понял ваш вопрос.

Скажите, у вас на сайте исполльзуется микроразметка или какой-нибудь шаблон для заполнения метаданных?

Просто у меня на сайте используется микроразметка <meta property="og:description" content="" /> и т.д для всех страниц основных разделов, и если вбить url вложенной страницы (или основного раздела), то в Гугле например, показывает один и тот же title для все страниц

vladimirl1:
а что можно сделать, чтобы задать правильный текст?

---------- Добавлено 17.07.2013 в 11:34 ----------

дескрипшн- есть, текст разместить нереально, может есть еще варианты&

Как советовали выше, дабавте вхождение в description + я бы его немного увеличил в тексте (1 строчка в 80 символов маловато, чтобы выводить в сниппете ИМХО)

sitexpert:
что значит реальные и как вы проверяете? Не забываем про пользовательский поиск гугла.
Пример слов и ссылка на кампанию - можно в поддержку.

проверяю просто руками в поиске, про пользовательский поиск знаю и он давно отключён (также проверял с другого компа, на всякий случай).

понял, напишу в поддержку, спс

"Немного" (от 1 до 27) отличаются позиции от реальных в Гугле (google.by).

LoveBeer:
🍻 Всем доброго безпохмельного дня! Подскажите как на новостник поселить быстробота, что бы он там жил и новости моментально в индекс вгонял.

Новости уникальные, не рекламные? Я своя новостник подключил в яндекс.новости. Результат - индексация каждый день (за редким исключением через день).

burunduk:
всё что угодно - любой фрагмент html кода - только понимать это будет только яндекс,
причём ноиндекс - это всего лишь инструкция не использовать в результатах поиска, а не не индексировать :)

собственно, это как раз то, что и было нужно.

но мы пока их убрали, будем смотреть что будет)

конечно, если возвращаться к исходному вопросу топика, noindex может никак не влиять на результат поиска и посещалку, может так просто совпало, с водом обновлённого алгоритма и островов, будем смотреть что получиться :)

Всего: 56