богоносец

богоносец
Рейтинг
775
Регистрация
30.01.2007

Распишите всё подрооообнее.

Если подразумеваются урлы, отличающиеся только региСтром|регистром, то вот прошлогодний ответ ТП:

В настоящий момент из страниц, url которых различается только в регистре, в результатах поиска может участвовать только одна из этих страниц. C помощью файла sitemap можно повлиять на URL отображаемой страницы в результатах поиска, указав в нем адрес страницы в требуемом регистре.

С уважением, Платон Щукин

Т.е. дело не в релевантности...

В выдаче при этом ещё чудеса творились >>>

крошка_сеошка:
Какой смысл различать эти дубли со стороны ПС?

А сие велика тайна есть.

Возможно, что просто так получилось... и лечить это незачем типа.

Вам в выдачу надо, вы за отсуствием дубЛей|дублей и следите.

А в запросах ПС регистр не учитывают...

Можно ли менять релевантные страницы конкурентам путем простановки ссылок на некорректные урлы?

Сомневаюсь, но не проверял.

ps Тестовых страничек было всего 2: уникурл · униКурл — во второй начало истории.

В G они когда-то присутствовали обе (c &filter=0), потом только одна. А потом пропал интерес... но осталось ощущение, что что-то тут не так.

Если чего ещё нароете, отпишитесь.

Олимпия:
Так просто целесообразнее в плане охвата ключевиков в одной единице текста.

Вот ещё заупячили:

pro-maker:
Только пытаюсь идти не от фиксации на одном целевом действии, которое сейчас называют лидом, а выстроить воронку трафика по конверсионности.

Сеонисты+копрорайтеры неизлечимы. Но мне их всех не жалко.

Отвыкайте от HTML Примеры в индексе. В кэшах посмотрите... там правда враньё:

Эти слова присутствуют только в ссылках на эту страницу: трафик
найдено по урлу. Вместо тайтлов анкоры ссылок на документы +...
fivefinger:
Google... или там тоже регистрозависимость играет роль при составлении robots.txt?

Да, играет... и там.

А в запросах нет: inurl:"?tab=siterate"

Вот и об чём это всё?

если я скрою текстовое меню в <noindex>, Яндекс и Гугл не увидит это как текст, но увидит как ссылки, тобишь:
- проиндексирует страницы по ссылкам
- учтет текст ссылки

Ужос.

Гугл не учитывает <noindex> это только Яндексу... закрыть текст, как советовал П.Щукин... но как при этом можно расчитывать на учёт текста ссылки? Я бы не расчитывал.

После введения rel=nofollow для Яндекса, <noindex> перестал закрывать ссылку (только её текст), и ссылки из подписей на серче (а они в <noindex>) стали видны в ЯВМ. Осталось проверить на уникальном анкоре...

ps Бросайте вы это всё, ничего хорошего не спланируете.

pps Никогда почти меня не устраивает навигация на сайтах, особенно избыточная, в ней просто теряешься.

Allality:
эти ссылки передают вес страницам

<noindex> не избавляет от «передачи веса», только скрывает текст от поиска. В подпись себе сцылку воткните и увидите в ЯВМ Серч в бэках.

Но вы же с картинками теряете внутреннее ссылочное... http://help.yandex.ru/webmaster/?id=1108948

а меню не обязано быть сквозным (для бота).

А Гугль альты ищет (в Я вбейте сами, а то тут соврут из вредности)... и зачем вам эти альты? Картинки-то можно в роботсе закрыть, но вот альты...

В пределах HTML неизбежны проблемы с малым количеством контента при великой навигации. Cмотрите как яндексоиды это прячут http://mail.yandex.ru/neo2/3.2.29/163361542/_jane.ru.xsl даже когда им индекситься не надо.

nata_pod:
большинство меню на сайте это: О компании, Услуги, Акции, Контакты, Цены и т.п. Раньше сайтам от таких меню плохо не было.
Платон Щукин:
некоторые страницы Вашего сайта считаются полудубликатами и поэтому отсутствуют в результатах поиска. Могу посоветовать Вам изменить код этих страниц так, чтобы оставить для индексирования только уникальный, неповторяющийся контент. Сделать это можно при помощи тегов <noindex></noindex> – поместите в них те части страницы, которые одинаковы для всех похожих страниц сайта (например, меню, заголовки и т.п.).

ТС, есть этот форум в индексе. В нём есть картинки с альтами, которые можно поискать-как-текст... разными ПС.

Продолжение фобий: А кучу внутренних ссылок со страницы Яндекс воспринимает как чего-хорошее или совсем плохое? Может в нофоллоу их?

Может в JS или/и XML вылезти?

Эксперимент ставился под вопрос о бане с использованием нескольких h1 на странице.
И страница вне индекса таки

А это и не эксперимент даже, а просто тогда надоело читать такие темы... никакого особого, как положительного, так и отрицательного влияния не ожидалось. А то, что сцылка из выдачи не туда — Я.глюк, кэш правильный.

Несколько h1 никак не отразится на выдаче страницы, но все таки как-то не так это

+ возникла другая мысль:

Матрикснет учитывает комбинации из ... всех тех же самых простых, доступных боту количеств, вхождений в теги и пр. Если мучиться вопросом: 1 или 2 <h1>?.. то просто вероятнее попасть в большинство. А если их 20, то крыша матрикснета на такое может не быть настроена... и вся разница.

ps В показанных примерах вообще XML... и очень разный. Поэтому файл, показываемый боту — такой компактный, почти без разметки. А искалки в нём видят только HTML-часть (или кто покажет опровержение?). А браузер показывает после XSLT — с большим количеством разметки, убедиться можно в FF: CTRL+A > правый клик > код выделенного фрагмента. Сравните с CTRL+U. В других браузерах иначе.

futuristian:
Судя по первому ответу Платонов

Этот автоответ посылается в самых разных случаях... и туда, где никаких покупных сцылок не было, и несколько лет Яндекс сайт очень любил, но вот вдруг заАГСил.

Поверьте, поисковикам хватает гораздо меньше, чем валидатору. Первая ссылка. А когда им начинаешь задавать про это вопросы, служители ТП впадают в глухую несознанку...

Всего: 13653