Александр Викторович,
3. Раскручиваю сайт автомобильной тематики. Набрал в гугле авто-блог и полез смотреть. Все блоги на первых 3ех страницах с nofollow. Дальше рыпаться не стал.
4. Конкурентов и так валят, правда регистрацией в говно-каталогах. Но все-таки надеюсь что Сейп на самом деле не вредит покупателям.
Делать большой уникальный текст для каждого товара сами понимаете нереально. Практически все генерируется по шаблону.
Т.е. мне в любом случае придется надорваться на внешних ссылках, чтобы гугл законно проиндексировал хотябы половину из моих 300к страниц? Хорошая перспектива...
2Nadejda
В чем выгода субдоменов я вообще не понимаю. Для SEO, насколько я знаю, субдомены считаются как абсолютно разные сайты. Т.е. нет ни выгоды от регионального домена, ни выгоды от того, что вся ссылочная масса идет на один домен.
У кого был опыт создания многоязычного сайта на разных доменах? Кто что может сказать сказать об этом? Перевешивает ли выгода привилигированности региональных доменов выгоду стандартных seo-характеристик?
За упоминание Гугла извиняюсь. Но с Яндексом похожая ситуация: в топ30 по моему ключевому слову только 2 не из зоны .ru, причем характеристики этох комовских сайтов достаточно приличные и на мой взгляд заслуживают более высокой позиции нежели 3я десятка. Т.е. ИМХО яндекс все-таки отдает предпочтение родному домену.
Но это лирика, все-таки кто-нибудь ответит на мой вопрос: что в итоге получается дешевле и эффективнее - несколько доменов для каждого языка, или подразелы в одном домене???
Вы считает миф? Например у белорусской версии Гугла (google.com.by) и просто Гугла (google.com) совершенно разная выдача при глобальном поиске (первые позиции держат белорусские ресурсы), хотя по логике все должно быть одинаково.
Размытие ядра? Что плохого в том, что у сайта будет больше оптимизированных страниц? Просто понадобится больше ссылок с хорошими анкорами. ИМХО.
Объясню суть моего вопроса: необходимо оптимизировать русскую версию одного сайта. И передо мной стал выбор: или прилеплять её к уже готовому комовскому раскрученному домену, или покупать под неё новый рушный домен и крутить с нуля?
Дело в чем: при поиске в рунете в Гугле по моим кейвордам первые тридцать позиций стабильно держат сайты с доменом .ru Это наводит на определенные соображения. Неужели никто не оптимизирует комовские сайты под русский язык? Или это все-таки заморочки гугла, и выбор регионального домена может пересилить такие факторы как возраст домена и внешние ссылки.
Вобщем итог такой: меняю контент, работаю дальше над ссылками, ну и все-таки не поленюсь сгенерить полную xml-карту.
Надеюсь поможет.
Всем спасибо за советы!
Т.е. гугл индексирует сайты в зависимости от их веса?
Я всегда думал, что вес страниц никак не влияет на индексацию.
Pavlick добавил 18.08.2008 в 20:35
Добавлю к слову, что видел проект, с PR4 главной страницы, где проиндексировано более 150.000 страниц.
Я понимаю, что sitemap.xml никак не влияет на выдачу, но дело в том, что количество проиндексированных страниц резко сократилось с 50 тысяч до 6ти. Не говоря о том, что всего на сайте 300.000 страниц, и даже 50.000 проиндексированных меня не устраивает.
Генерирую полную карту сайта на 300.000 страниц с помощью тулзы GSiteCrawler 1.23 уже работает 4 часа, а не прошла и пятой части. Может кто-нибудь знает способ побыстрее? Гугл предлагает питоновский скрипт, но мой сервер его не поддерживает, а сам я его установить к сожалению не могу. Да и не факт, что через этот скрипт будет быстрее и не положу сервер.
Сайт был создан около 4ех месяцев назад, каталог добавлен через 2 недели после выхода сайта в свет. Но насчет фильтров согласен с svift. Я никогда не слышал о том, чтобы за большое количество страниц можно было попасть в немилость.
2Илья Алексеевич
Да, карту добавлял, но маленькую, буквально 15 урлов, до 2го уровня. Все эти урлы проиндексированы. Полную карту на 300.000 я не генерировал. Вы считаете, что это поможет?
2fed
Спасибо, буду ждать новостей.