богоносец

богоносец
Рейтинг
777
Регистрация
30.01.2007

А как быть с частичными дублями, возникающими из-за постоянного переползания текстов ссылок на следующие страницы &page=*? И зачем гонять бота по этим десяткам/сотням страниц?.. это же отвлекает его от индексации основного содержимого. А количество обращений бота к сайту — ограничено. А возможность корректной проверки ботом страниц на дублирование — граничит с автоподозрением его в ддосе. Вот всё и получается — как-нибудь... по мере сил и возможностей.

юни:
Вводили бы санкции без вот этих дворовых претензий - "ракеты есть?", "а если найду?" и прочих СМИшных истерик на всю планету.

Якобы кто-то из госдепа высказался примерно так:

Таких (тяжелых) санкций, как русские сами себе придумают, мы никогда ввести не сможем.

Но это ж СМИшный журналюга сказал, поэтому верить ему нельзя.

Не надо забывать, что путин действует именно так, как это нужно штатам (почему его счета и не трогают), стоит задача убить роль россии в постсовке. Задача выполняется. Да, истерики, пропаганда... и путин постоянно создаёт подходящие (госдепу) поводы.

Тут тоже много лишнего http://www.google.com/search?q=inurl:searchengines.guru/forumdisplay.php%3Ff%3D48&filter=0

http://www.unmedia.ru/paginator.html

Но на всеми другими вопросами удобства для ПС вы так и не задались.

Создатели СКР до пенсии иногда и не доживают.

Спасибо тёмным силам. Как же без них... предотвратить изменение вашего мира в ошибочных направлениях?

big boy:
А если вопрос в том, что нужно сохранить их в индексе, но убрать дубли, то нужно для каждой из страниц page=1, page=2, page=3 ... прописать уникальный статичный текст.

Или убрать одинаковый текст (от ПС, а не от ползателя). Хватит разного текста ссылок.

/ru/forum/development/web

/ru/forum/development/web

/ru/forum/development/web

ТС не знает, нужны ему в индексе страницы со ссылками на много-страниц или нет.

И ещё он не знает, что ... добавление одной новой ссылки на первой странице меняет содержимое всех страниц *&page=* что заставляет бота их опять переиндексить (а делать это им не очень хочется, поскольку изменения минимальны). Такая структура сцайта не облегчает жизнь поисковиков, значит они могут облегчить её сами, пожертвовав неудобным для себя сцайтом.

А название форума посмотрите. Где вы видели SEO?

Заголовок документа должен кратко описывать содержимое. Но в выдаче Гугла заголовок сниппета может быть и не из <title>

easywind:
да ну? А так? Были еще какието запросы

=продвижение сайта=

но в примере спецсимволы не в заголовке сниппета.

<title>оладушко ♥ печенько

http://www.google.com/search?q=site%3Asaney.ru%2Ftools%2Fgoogle-snippets-generator.html

http://yandex.ru/yandsearch?text=url:saney.ru/tools/google-snippets-generator.html

donc:
метатег тайтл

Нет такого. Или есть?

и мета не спасла.

А условий использования поисковиками мета-дескрипшна не упоминают ни разносчики мифов, ни писатели хелпов.

А вот косвенный миф:

Тайтл и метатеги должны быть между <head> и </head>

donc:
Почти миф - Уникальный дескрипшен - говорит для ПС (по версии Липатцева), что вы работали над качеством сайта, и то под вопросом. Может и говорит, но позиций не добавит.

Покажите как гугл охотно использует дескрипшн, повторяющийся на всех страницах сайта.

/ru/forum/849886

Спецсимволы в тайтле Гугл отфильтровывает http://www.google.com/search?q=inurl:searchengines.guru/showthread.php%3Ft%3D844409&prmd=ivns&filter=0

а в сниппетах отбеливает. Можете сами так проверять, заводя тему со спецсимволом в тайтле.

Яндекс больше показывает http://yandex.ru/yandsearch?text=url%3Ameta-description.narod.ru%2FGoogle.xml+Trademark но тоже не все.

Можете баловаться буквами неведомых вам алфавитов... их не фильтруют, поскольку искать-то их надо...

Zick:
Если мы обнаружим, что в заголовке какого-либо результата поиска имеются перечисленные выше недостатки, мы попытаемся сгенерировать более качественный заголовок...

Как хочется верить в это бла-бла.

А поискать слово из реального тайтла.

Всё проще: показывается то, в чём есть слово запроса.

Всего: 13677