burunduk, ну там речь идёт о шаринге из Андроидов к себе в акаунт, на свои соц.сети. Что-то теперь подрезать собрались в урл. Хотя тут же отмечают что само "Поделится" сработает как надо. И бог с ними этими параметрами...
Допустим у страниц пагинаций отличные и дружелюбные seo-урл: никаких закорючек и знаков "& =". Вопрос ранее в другом. Как настраивать сами страницы пагинации в плане индексировать их или нет. Отдавать ли в индекс гугл и яндекс?
dmitriy_xom, смотрите какая у вас ситуация... Изначально в роботс.тхт у вас было закрыто командой Disallow: /*offset=* и *&offset= (это и сейчас есть). Но сама страница отдаёт гуглу команду 200 ОК - доступно, она (точнее сам урл) есть "физически". Но тут же он обнаруживает что в роботсе не надо её содержимое помещать в индекс поисковых баз. Об этом и пишет что "Информация не доступна..." Раньше вообще писалось что ",..закрыто в файле роботс"
Сейчас вы поставили тэг "noindex", но гуглу в приоритете команда из роботс.тхт вообще ничего там не проверять и не смотреть. Поэтому он и не видит вашу новую настройку в коде. Нужно убрать Disallow: /*offset=*, чтобы получить доступ к этим страницам и там в коде боту увидеть noindex...
Вот тогда они все и полезут из поисковой выдачи прочь.
Какая у вас CMS? Что-то я так и не понял по исходному коду. Там надо внимательно проверить, что еще с этим *offset= генерируется, чтобы не попало в индекс.
Нельзя смешивать тэг canonical вместе с noindex, это неверная настройка и гугл просто игнорирует все эти указания.
И потом, follow или noffolow после команды noindex... с этого года не имеет значения и важности. Гуглу самое главное что уже стоит первой запрещающая директрива noindex в мета-тэге.
Благодарю за комплимент, и особую чувственность к моей грамотности. Но я обычный вебмастер и посетитель данного форума, как и многие здесь. За особым статусом - это к другим пользователям, ты не по адресу немного.
И с каких это пор ПС сканируют исходники .php-файлов движка (или не сканируют)? К чему это вообще заявлять... как собаке пятая нога или лишь бы сказать чего-нибудь. Я там ранее отметил о коде страниц сайта, а не файлов CMS ))
Нажми Ctrl+U и ты получишь исходный html-код страницы форума, которую сейчас читаешь.
А в Битриксе там сплошной гавнокод, сгенерированный уже самим движком на сервере. Есть кучи примеров неоптимизированных сайтов. Сплошное нагромождение javascript и прочего бреда, плодящего страницы под 10K-30K строчек кода.
Не ну... это проблема, тянущаяся еще с момента создания этого TinyMCE, когда "стронги" рулили в Гугл и Яндекс. Разработчики так и оставили по сегодня. Кароче там надо обрубить прописывание "стронг-тэгов" в системных настройках. Если это вордпресс, то в файле темы function.php Не помню что и как писать, гуглить надо. Там делается заменитель на тег <b>, при сохранении статьи, даже если он в админке сайта при редактировании виден как "стронг"
Пришлите посмотреть примеры сайтов конкурентов кто на Битриксе и хорошо ранжируется из-за этого... Там же адовый бред, а не seo-оптимизированный код, который "полюбит" любая ПС.
Все владельцы сайтов на Битриксе - это бездонная бочка денег для обслуживания и продвижения этого "сайта". Они все не CMS-ом двигаются, а другими способами. Да так, что бедный Яндекс закрывает глаза на тот весь битриксовый исходный гавнокод страниц, и сайт тащит в ТОП ))
Если выделить какие-то словосочетания ради читабельности тегом <b> а не <strong>, то это нормальная практика. Хотя при переспаме вокруг, и это тоже в минус сработает)
Что касается информации из сети - там от 2012 года материалы, многие из них не актуальны. Раньше эффектно выделение стронгами работало. Сейчас опасно, или раз на раз - у кого как.
Форматирование текста семантической html-разметкой куда полезнее и правильнее будет. Почитайте о об этом. Речь идёт о структуре в коде html-тэгов:
<section>
__<h2>
_____<h3>
_______<ul> + <li>
_______<h4>
</section>
Т.е. весь приоритет тому, что находится в тайтлах и дескрипшене, и потом в <h>...</h>
Очередная ошибка, смотреть как кто-то найденный в ТОП поиска делает у себя, и также повторять за ним.
Яндекс прекрасно видит "техническое усиление" ключевых фраз, за что может наложить фильтр. Тэг "стронг" один раз надо ставить на всю страницу. Или вообще не ставить, если в других местах стр. итак переспам. Он идёт предпоследним по значимости. Все предпочтения "тайлам" и H1.
То что вы в пример проводите - всё правильно Яндекс сделал. Побуквенно поисковому запросу создал тайтл. В следующий раз может опустить эту страницу. Стронг - давно только во вред.
Как пример, последствия тут же под носом - /ru/forum/986035 ))
maxg5, Весь Сниппет создают алгоритмы, основываясь на контент и релевантность страницы. Для конкретной настройки (желаемой) надо экспериментировать. Напишите сюда http://prntscr.com/ij94sj что вам нужно, может поменяют "мозги Гугла" содержимое сниппета.
Пока что он оттуда (см. скрин) сформировал тайтл.
upd: Также многое зависит от самого поискового запроса. Так то если просто посмотреть на анализ созданного ранее содержимого сниппета, то всё там
как вам и нужно в теме поста - http://prntscr.com/ij99rk Думаю вы немного не поняли ранее, что все тайтлы они "динамические" у гугл и меняются/создаются в зависимости от подачи запроса...
Проверено: указание цены в сниппете ниже чем у конкурента, значительно увеличивают кликабельность, чем просто одни спецсимовлы в description!
)