be_wild, если учитесь, то в разделе для новичков в следующий раз создавайте топик. ;)
А по Вашему вопросу, количество уникального контента в документе, напрямую, не влияет на его релевантность.
Ага, так взлетит, что будет даже выше спецразмещения директа. :)
Сранно, что он у Вас вообще поднялся, раз такие вопросы возникают.
Отказаться от использования идентификаторов сессий или включать сессию только тогда, когда это надо (подробностей не знаю, не программист). ;)
sitesale, передача идентификатора сессии может происходить при помощи cookie или в строке запроса.
Передача идентификатора сессии в строке запроса может повлечь за собой 2 проблемы:
1) Появятся много разных страниц с абсолютно одинаковым содержанием, причём при каждом обходе робота будет добавляться новая страница.
2) Может проиндексироваться страница с одним идентификатором, а при переходе по этой ссылке страница может выдать ошибку, так как такой идентификатор уже не существует.
Нужно, чтобы передача идентификатора сессии происходила при помощи cookie.
Решается 3-мя строчками в файле ".htaccess" (в большинстве случаев).
php_flag session.use_only_cookie On php_flag session.use_trans_sid Off php_flag session.auto_start On
MASe, не всегда. ;)
http://menu.ru/ - ЯК, Тиц 2300.
http://spb.menu.ru/ - не ЯК, Тиц 230.
http://kras.menu.ru/ - не ЯК, Тиц 80.
И таких примеров масса.
Что касается Тиц, то (по наблюдениям) он считается для каждого поддомена отдельно, если:
- они все описаны в ЯК;
- хотя бы один из них описан в ЯК, домен второго уровня не описан;
- домен второго уровня описан в ЯК, поддомен(ы) не описаны.
Что касается нахождения документов из поддомена(ов) и домена совместно в выдаче Яндекса, то это возможно, только если каждый из них описан в каталоге (опять же по наблюдениям):
- домен описан, а поддомен нет - один документ (самый релевантный из обоих);
- один из двух поддоменов описан, а домен нет - два документа (с описанного в ЯК поддомена и самый релевантный документ из другого поддомена и основного домена);
- два поддомена описаны, а домен нет - три документа;
- два поддомена описаны, домен описан - три документа.
и т.д.
Поддомены блогов на ЖЖ, наравне с поддоменами хостингов и другими подобными сервисами, расклеиваются изначально яндексоидами.
Евген, если бы только в теории. Платон вон уже письма не успевает строчить о том, что "Ваш сайт содержит ссылки на сайты, замеченные в ссылочном спаме".
Что касается сайтов в топе с продажными ссылками, то как только накопится некая критическая масса (вероятно, что эта масса разная для разных сайтов) "нехороших" ссылок у них, то и санкции включатся автоматически, это же очевидно.
Kirik, а Яндекс никогда и не считал поддомены отдельным сайтом, за исключением случаев когда либо они все, либо даже один из них, либо домен второго уровня описан(ы) в ЯК.
Денис, и охото Вам в выходной качеством поиска заниматься? Или вы там как оптимизаторы, работаете без выходных? :)
Покупка директа - не способ присвоения региона. Вот если сайт участвует в Рекламной сети Яндекса (РСЯ), то это, возможно, и может позволить в ускоренные сроки присвоить сайту географическую зону, и то довольно спорно.
А по вопросу TC:
- регистрация сайта в Каталоге Яндекса, в сервисе Яндекс Адреса, в региональных каталогах-партнёрах Яндекса.
- употребление кода, название города, почтового индекса, названия уникальных улиц на большом количестве документов.
- использование названия региона в имени домена (domain-nsk.ru, spb-domain.ru и т.д.) или географического домена второго уровня (nsk.ru и т.д.).
- принадлежность диапазона IP к определённому региону или IP хостера к конкретному городу.
P.S. Достаточно полезная, исчерпывающая информация по данному вопросу - продвижение в регионах, доклад на конференции.
Методы ссылочного ранжирования были разработаны в противовес текстовому спаму, когда поисковые системы убедились, что бороться с поисковым спамом, принимая во внимание только текстовые критерии ранжирования - невозможно.
Не так давно все приёмы поискового спама объединяло одно свойство - все они были основаны на идее соответствия текста продвигаемой страницы и поискового запроса, и любой из приёмов спамер мог реализовать самостоятельно, не прибегая к помощи других веб-мастеров.