Skaizer

Skaizer
Рейтинг
104
Регистрация
11.08.2007

ИМХО Сети очень эффективная тратегия, используется многими крупными компаниями, правда воспринимаются поисковиками как спамовые кампании по раскрутке сайта, вероятность того, что поисковик заподозрит неладное небольшая, но возможные последствия плачевные :)

Если перейдете на ПХП, подбирайте такую CMS, которая работает через mod_rewrite, чтобы адресная строка не содержала стоп символов(&-=+ и т.д.), а была вида сайт.com/spisok/rasdel/punkt

Это гораздо повысит качество индексации сайта.

Стоп символы затрудняют индексацию сайта поисковиком, т.к. тот не знает, что обозначает каждый параметр в адрсной строке, но тем не менее гугл с этим справляется нормально.

А также поисковик любит расширения файлов *.html , *.php(только без дополнительных параметров)

Удачи :-)

Периодичность пересчета Яндекс тИЦ известна только Яндексу. Никакого определенного временного промежутка нет.

Будет.

Но при возможной индексации первого сайта возможно может сыграть большую роль возраст домена.

Лучше запретить индексацию первого сайта в robots.txt

User-agent: Yandex

Disallow:/

Host: www.сайт_номер_1.ру

Serafim:
Skaizer, у не сможет ли подхватить такую ссылку через JC Google?

Хм, 100% не в курсе, от гугла все ожидать можно.

Еще как вариант можно сделать ссылку на flash ) ее то уж пока точно никто от откроет ) хотя все может быть в скором времени )

Лучше использовать 200-1000 слов на одной странице с оптимизированным контентом, т.к. существует мнение о плотности ключевых слов относительно всего текста страницы. Если текста больше, то желательно разбить контент на несколько страниц и оптимизировать каждую страницу под релевантную тематике ключевую фразу( 2-3 фразы/слова).

Удачи :-)

Гугл использует сложный алгоритм ранжирования, который учитывает более 100 критериев. Каждый критерий так или иначе влияет на общий вес сайта.

Яндекс учитывает тематический вес ссылающихся сайтов, и строит по этому критерию позиции результатов запроса.

В Рунете лидирует яндекс, но гугл быстро набирает обороты )

На мой взгляд целесообразно оптимизировать сайт под яндекс, и готовить дальнейшие планы по переоптимизации для гугла, т.к. в скором времени скорее всего гугл быдет абсолютным поисковиком.

Попробуй использовать javascript, если возможно. ПС не следует по ссылкам подобного рода.

onclick="document.location'www.сайт.ру'";

Запрети индексацию PDA версии в robots.txt и используй определение основного раздела на сайте, поисковик будет считать указанный домен как основную часть сайта.

User-agent: googlebot

Host: www.сайт.ru

А также используй meta тэги

<METANAME="ROBOTS" CONTENT="NOINDEX,NOFOLOW">

meta тэги имеют преимущество перед robots.txt, при условии что в robots.txt индексация разрешена, а в мета запрещена, обратный вариант невозможен. Это позволяет разрешать индексацию методом исключений. Простыми словами: "Разрешить индексацию всего, кроме..."

Удачи :-)

При определении ранга сайта, взаимные ссылки ценятся гораздо меньше, чем ссылки с одной стороны. Большинство ПМ знает, что владельцы сайтов обговаривают обмен ссылками для взаимного повышения ранга. В основном, это и послужит вымиранию технологии взаимных ссылок.

Лучше использовать треугольные или более ссылки, где на каждый сайт ссылается только один внешний сайт из всего многоугольника.

Всего: 354