Baton007

Рейтинг
54
Регистрация
06.01.2007
genrih:
Как идут дела напрямую в поиске по site:url?
Пошла молва о серьезной неактуальности информации о состоянии индекса в панеле вебмастера Гугля.

Одновременно с этой молвой еще авторитеты заявляют, что Гугл поменял алгоритм индексации внутренних страниц и выбросил из индекса даже на старых сайтах (соответственно не включил на новых) страницы с недостаточным количеством внешних ссылок, так ка посчитал их неважными и неинтересными.

И еще одна мысль, которая может кото-то заинтересует (более подробно - www.seomoz.org/blog/indexation-for-seo-real-numbers-in-5-easy-steps):

Не так важно сколько страниц в индексе, а гораздо важнее на какое количество страниц Гугл отправляет ваших посетителей. Это можно увидеть через Google Analytics, поставив фильтр по Google и затем по Landing Page и просто посмотрев на количество результатов (см. оригинальный пост - там на картинках все видно).

Проведите этот эксперимент - думаю будете удивлены (уже 2 дня под впечатлением).

Во-первых, соотношение фактического количества страниц и проиндексированного у вас вполне обычное. Гугл поменял принцип индексации и, как результат, даже самые крутые ресурсы потеряли индекс. На западных блогах приблизительно полгода наза только об этом и писали, причем зачастую даже в нецензурных выаржениях, потому что народ, который зарабатывает на рекламе резко потерял визиторов с Гугла. Соответственно западные Гугу советуют бороться с этим только уникальным контентом и расстановкой внешних ссылок не только на главную, но и на внутренние страницы, особенно не забывая про страницы категорий.

Во-вторых, у вас на сайте не мешало бы подкорректировать мета-тайтлы на внутренний страницых, т.к. они очень дублируются. Одновременно мета-дескрипшны должны быть не только более разнообразными, но и гораздо длиннее, чем сейчас.

В-третьих, стоит подумать по каким ключевым словам вы хотите видеть посетителей с Гугла и на какие страницы. Соответсвенно, меты этих страниц должны соответствовать кивордам... А внешние ссылки должны иметь такие же анкоры...

Это для начала...

BCM:

Дело в том, что ссылки ставлю не я, а авторы статей. И анкоры они выбирают самостоятельно. Как правило это "сайт.com" или "Название сайта".

сайт.com - это неплохой вариант в принципе, так как он самый естественный и Гугл это уважает. С другой стороны, раз вы подняли этот вопрос, значит ссылок от авторов не хватает. Есть два варианта - подключиться самому к генерации ссылок или мотивировать авторов использовать правильные анкоры. Как именно мотивировать - думаю вам виднее.

juniorSEO:
2. есть 2 сайта, тематика одна и та же, айпишники похожи (различаются несколькими последними цифрами), тексты одинаковые. Как результат - 1 склеился с другум.Вопрос - поможет ли редизайн и рерайт сайта "расклеить" их?

Редизайн - не поможет. Необходимо максимально изменить контент и особенно все меты (тайтлы и мета-дескрипшн). Для пущей убедительности можно поменять структуру - увеличить или уменьшить количество разделов. А потом ждать...

На самом деле это не так сложно как кажется с первого взгляда - надо найти того, у кого в школе хорошо получалось писать изложения :). А толк от этого может получиться двойной - можно охватить больше вариантов ключевых слов.

Sapega:
А в инструментах для веб-мастеров смотреть не пробовали? ☝

Согласен, веб мастер дает более правильную информацию. Еще можно смотреть через Яху (siteexplorer.search.yahoo.com).

А чтобы подняться в топ по нужным фразам в большинстве случаем двух-трех месяцев может не хватить. Продолжайте ставить ссылки с правильными анкорами. Не забывайте ставить не только на главную, но и на внутренние страницы, чтобы перекоса не было. Соблюдайте динамику, чтобы все выглядело естественно :)

Не знаю как насчет индексации, но есть интересный список на SEOMoz, где обсуждаются факторы, которые позволяют отнести домен к спамерскому. Так вот .info (вместе с .cc, .us и другими дешевыми доменами) находится на втором месте в списке. Может это косвенная причина недоверия?

Willie:
Никуда он не войдет и радоваться будет нечему. Потому, что сайт обладает кучей деффектов, а про магазин на поддомене уж лучше не вспоминать: открыл пару страниц - это тихий ужас! Я даже не буду отвечать, какие именно деффекты: достаточно посмотреть на пять или шесть (!) абсолютно одинаковых TITLE на главной странице и кучу сылок саму на себя, чтобы понять: это не тот сайт, который может ранжироваться хорошо.

Я отвечал на вопрос про то, почему сайт сначала появился, а потом полностью исчез. Но вы правы, если сайт в ужасном состоянии - как с точки зрения кода, так и по SEO-параметрам (часть из которых вы назвали), то разумеется никакие внешние ссылки не помогут. Особенно если конкуренция нормальная.

storemont, внутренняя оптимизация гораздо важнее внешней. Даже больше, дефекты и проколы на самом сайте могут свести к нулю все затраты на внешние ссылки - вы просто потеряете время и деньги.

Толк есть как от любой ссылки. Однако надо понимать, что ссылка скорее всего будет со страницы без ПРа и глубокой вложенности. Полезно проверить насколько хорошо индексируется каталог. Если плохо, то ваша ссылка никогда не будет найдена и не принесет толку.

Также надо выбирать каталоги с прямыми ссылками (не no-follow и не редиректные).

Если одновременно, то купите Адвордс на разных языках с идентичными кивордами.

Если именно раскрутка интересует, то надо каждый язык отдельно продвигать - ключевики-то разные.

Если для вас ТУТ является приоритетом номер 1, без которого жить не можете, то есть хорошее средство с ним подружиться - заказать у них хостинг. На практике проверяли - и сайт гораздо быстрее индексируется ими и в выдаче выше появляется почти сразу. Но вы должны понимать, что это решение поможет только для ТУТ.бай.

Всего: 152