богоносец

богоносец
Рейтинг
777
Регистрация
30.01.2007
Алексей Нерсд:
тему надо забанить пиарите черт знает кого

Не пиарит, а продвигает. Несколько сотен любопытных (включая меня) сделали запрос + клик на единственной позиции. Никакой накрутки: все ip/подсети / отпечатки браузеров / истории поисков / ... — разные.

Эта тема для раздела о напильниках.

Had:
Я так не думаю.

Ну вот какой % описаний в выдаче? https://www.google.ru/search?q=description+site:searchengines.guru

Вы не сможете их правильно заполнить... поэтому они не покажутся.

А если джамшуты написали длинные портянки, то, теоретически, траф вероятен по словам из <body> — при этом вероятность показа описалова == 0

SnikerS_HB:
Были написаны "трафареты" для автоматического заполнения title, description

Ну покажите трафарет / пример заполнения.

А то завтра будут жалобы почему не показывает?

SnikerS_HB:
"Необходимо создать карту сайта .xml, исключив параметры <lastmod>, <changefreq>, <priority>".

Зачем исключать?

SnikerS_HB:
Robots.txt...

боты обращаются к robots.txt в нижнем регистре. И за регистром ваших /запретов тоже следите...

SnikerS_HB:
На каждой странице прописан rel="canonical" (см. п.8.а.), и все эти дубли не индексируются, т.к. есть каноническая страница.

Как предпочтительнее избавляться от дублей Redirect 301 или rel=canonical? Почему?

А потому что в хелпах про rel=canonical писали — не как про средство от избавления от дублей в индексе, а как о предпочтительном для выдачи варианте дубля (и вы не можете контролировать поведение бота, даже если фактически он сегодня ведёт себя не совсем так, как написано в хелпе, это завтра может измениться)

Но фактические дубли потребляют лимит бота на количество обращений к сцайту... поэтому — не только 301 со всего, похожего на дубли, но и полное отсутствие сцылок на дубли внутри сайта. (а по отсутствию дублей в индексе вы не можете делать вывода о том, что сервак их не отдаёт. Может бот их сам отфильтровал)

Вообще хелпы глаголили, что canonical это для страниц-дублей.

Had:
Сделаю дескрипш и посмотрю, изменится ли траф. Если нет, проще удалить, чем держать ради этих 20 баксов.

Не изменится.

Копируя описалово из текста, вы не добавляете вариантов олгоритму аннотирования.

А на ранжирование оно не влияло.

И например этот форум генерит плохое описалово, слишком похожее на тайтл, поэтому его не всегда показывает. Но на ранжирование это не вляет, и поисковый траф тут был, и эксперименты всем лень.

miketomlin:
??? ПС прекрасно распознают обрамление уник. контента.

Эта брехня/пиар только для верующих и сойдёт.

Вопрос был не о прекрасно...

Had:
Оптимизайка, спасибо, то есть можно смело удалять?

Вам ответили:

Оптимизайка:
В результате ничего не изменится, но желательно будет доработать документ для соответствия этому стандарту

Браузеры боле-менее умеют парсить невалидное, но дольше.

Had:
как сделать, чтобы дескрипш форума формировался из первых 100-200-300 символов первого сообщения темы?

А вам это не нужно.

Ну вот и посмотрите, сделали мету в википедии или нет?

Дорам это нужно...

miketomlin:
Футер скорее всего можно сделать сквозным.

А как бот распознает футер... и всё остальное?

Не столь трудно автоматизировать HTML+CSS рандом при неизменности вида в браузере.

Не столь трудно спрятать JS любой блок

postavkin:
для ИМ это дает какой то положительный эффект?

Это сдохло на стадии экспериментов... но траф на разные страницы был (хотя не все из них генерились, были и написанные человеком).

А потом была проговорка святаго яндекса про конкурентов вообще. Типа нефиг плодиться, в выдаче им не место.

Всего: 13677