john2007

john2007
Рейтинг
173
Регистрация
26.03.2007
albion:
Я так и делаю с помощью 301 редиректа и дерективы host в robots.txt

Я имел ввиду disallow, что бы не чему было расклеиваться, если что. Или у зеркал так не бывает как у страниц? (у меня просто ни того ни другого не было).

Luxer:
Здравствуйте, уважаемые господа оптимизаторы!

Хотелось бы задать такой вопрос - какой общий процент ключевых слов в тексте страницы из meta keywords является оптимальным?

Заранее спасибо за совет :)

А meta keywords то тут причем?

про плотность:

по проще /ru/forum/87043

по сложнее /ru/forum/97783

albion:
Бывает из за глюков страницы расклеиваются и выдаче по запросу появляется страница, на которую не вело не одной внешней ссылки с необходимым анкором, а так как ссылок на эту страницу нету, сайт падает по запросу. Может улететь на несколько сотен позиций вниз. Данный эффект может продлиться до нескольких апдейтов (самое большое у меня было - 6 апдейтов, что на тот момент равнялось 1,5 месяца). Так что лучше сразу об этом побеспокоиться и убрать возможность появления дублей.

А, из-за расклейки - это да, возможно может быть.

Тогда по такой логике и зеркала от индексации запрещать нужно (с www или без www в том числе)!

MerlinMAG:
S.D.M., юзай поиск - тема неоднократно поднималась

А тут все темы, по крайней мере от новичков, не однократно поднимались :)

Вот, нашел.

/ru/forum/147192

albion:
Склеить то он склеит, но в результате различных глюков в выдаче они могут заменяться, и позиции резко падать. Что бы этого не было - от этого лучше избавиться. К примеру - на всех моих сайтах, при запросе www.site.ru/index.php происходит 301 редирект на www.site.ru и поэтому я застрахован от различных глюков. Да и так же прописываю в robots.txt (не на всех еще прописал):

Disallow: /index.php
Disallow: /?

У меня были случае, когда на сайте небыло не одной ссылки на файл index.php, но в индексе ПС он появился, из за внешней ссылки. Так же мне портили люди всю картину выдачи, добавляя в ПС www.site.ru/?parametr

Так что лучше сразу написать две строчки, и не мучаться потом.

Понятно, что за счет внешних такое может получиться. Запрещая в роботсе страницы лишаем себя части естественного ссылочного, если оно не принципиально, а важнее чистота выдачи, то можно и запретить.

Кстати, на счет падать в выдаче после склейки страниц - не сталкивался с таким. От чего интересно этот эффект возникает?

alexparty:
А поисковик не склеит автоматически корень и index.htm? Мне кажется, это очевидно и должно быть учтено поисковым движком.

Склеит, только все равно лучше "дубликатов" не разводить за счет "разных" ссылок изнутри и снаружи. Запрещать один из "дубликатов", ИМХО смысла никакого нет, достаточно не разводить их за счет "разных" ссылок.

taljanich, как определить, что он склеяный? Смотрю кэш страницы, ее и наблюдаю и info: этого же сайта, значит не склеяный? :)

Владимир-C:
Вот этот нюанс и продиктовал мой вопрос: ссылка же ставится вне поля доступа посетителей, т.е. эта часть поля страницы - она как бы уже и не форум... А?

А, ну если вне доступа посетителей, тогда другое дело :)

Вот Яндексу разбираться в какой зоне ссылки для учета или не учета тИЦ...

Владимир-C:
Давно взял на вооружение тезис о том, что ссылки с форумов тИЦ не повышают.

А что смутило-то?

То, что ссылки с них продают? Так их в первую очередь не для тИЦ продают :)

Всего: 2535