Alex Agent

Alex Agent
Рейтинг
304
Регистрация
07.04.2011

Главное, не переусердствовать. За излишнее цитирование одного и того же ключевика в тайтле Яша может и невзлюбить как за попытку спама. Я предпочитаю повторять одно слово не больше 3 раз. Учтите также, что с большой степенью вероятности тайт будет показываться в снипете в качестве ссылки, поэтому он должен быть и "человекодружественным".

Прога для анализа ссылчной структуры и веса ссылок, про которую я говорил, называется PageWeight. Стоит 600 рублей.

Если не ставить целью 100% валидацию HTML, то вариант с EMBED тоже подходит.

Добавляем сайт в аддурилку Яндекса и Гугля. Подключаем Вебмастеров обоих систем. Ждем. Потом предпринимаем какие-то действия в зависимости от результата.

Иногда изменения попадают меньше, чем за сутки. Иногда - за несколько дней. Иногда для внутренних страниц изменений приходится ждать неделями.

Можете попробовать поднять частоту индексации страниц роботом в Google WebMaster Tools, но это не обязательно должно работать, скормить обновленную карту сайта. Но гарантии, что бот резво прибежит и все сосканирует никто не даст.

На моей практике это обычно происходило так:

1. Если активность на форуме небольшая и он играет скорее вспомогательную роль - размещаем в подкаталоге основного сайта.

2. Если активность высокая и форум можно рассматривать как достаточно самостоятельный проект - выносим на пооддомен или даже отдельный домен второго уровня.

Доводилось неоднократно менять CMS на сайтах в различных направлениях. Что важно, чтобы не просесть в выдаче:

1. Сохранить по возможности ссылочную структуру. Если часть ссылок сохранить не удается, обязательно выставить 301 редирект через .htaccess (я делаю через mod_rewrite) или средствами CMS (если таковые имеются). В отдельных случаях приходится писать свой модуль/хак для CMS, который бы осуществлял перенаправление в зависимости от параметров URL (mod_rewrite может перенаправлять по 301 редиректу в зависимости от параметров строки GET, но при этом передает весь набор парамаетров в строке нового запроса, что в ряде случаев может быть не желательно).

2. Сохраняем контент и его верстку (где был H1 должен быть также H1, а не H2 и т.п.).

3. Шаблон тоже желательно сохранить.

Это основное, обычно хватает.

Как-то странно, но я такой пользуюсь. Может мы в разных реальностях живем? ;) Прога платная, бесплатных аналогов не знаю. С некоторым приближением рассчитывает внутренний вес страниц внутри сайта.

Что интересно, сразу после нового сканирования сайта сайт переместился в Top 10 по наиболее важному ключевику. Сложно сказать, насколько эти события связаны.

t0sYAra:
исключительно с этого заходит:

157.55.116.82

У меня с IP этого диапазона ходит почти исключительно вот это: Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; SV1; .NET CLR 1.1.4325; .NET CLR 2.0.50727; .NET CLR 3.0.30729; .NET CLR 3.5.30707; InfoPath.2).

Видимо действительно, как уже говорили, проверяет на клоакинг.

Всего: 3196