Ага, получил; туда же и ответил.
А что ж не подсказать? У Вас нет нормального TITLE, вот и все.
Я бы только уточнил: "после появления ее в Гугле", а не после создания. Вот тогда постепенный рост ссылок на страницу будет выглядеть очень естественно и пристойно, как и подобает для ресурса с PR=6.
Это практически безболезненно, если только на одной странице будет такое, тем более главной. Остальные варианты намного хуже, особенно третий.
А попробуйте прописать в CSS вот так: h2 {font-family: tahoma, arial, verdana, lucida, impact; font-size:15px; display:inline; color:#8B0000;} (разумеется, подставляя свои значения)? Это избавит от необходимости помещать заголовок H2 в контейнер DIV и гарантирует, что все Ваши заголовки второго уровня будут выглядеть узнаваемыми и одинаковыми. Кстати, фонт IMPACT - это специальный заголовочный фонт, довольно красивый, прекрасно понимается всеми браузерави и операционками.
Ну хорошо, 30: за 5 минут можно только найти, где это формируется в CMS. Но зато работать будет на всех страницах и в итоге станет на одну головную боль меньше: Вы будете уверены, что с заголовками на сайте полный порядок.
===================
Willie добавил 10.03.2010 в 22:46
И все-таки: лучше решать это другими методами. У Гугла есть вполне однозначная рекомендация, как писать заголовки и заголовочные HTML-теги внутри текстов. Почему бы не следовать ей?
Да, Ваши варианты валидны с точки зрения кодов HTML. Но заголовок H1 на сайте-конкуренте, составленный, как говорит Yakov_Ch, выиграет у Вашего по-любому.
Вы не воспринимайте, что все, что советуется, надо делать обязательно. Можно и не делать - но тогда пресловутые конкуренты, кто по каждому пунктику сделают страницу хоть на копеечку, но лучше Вашей, окажутся выше при прочих равных условиях. Просто чистенькие и легкие сайты гораздо легче продвигать, чем обросшие ненужным мусором.
N/A - это "Not Assigned", то есть, значение формально считается не присвоенным. Запросто бывает, как Вы сказали: что страница вес уже имеет, и неплохой такой, просто не обновлялись значения в тулбаре. Но вот если сразу после АПа такое случилось, да еще со страницей, которая до этого имела PR - значит, что-то не ладно в Датском королевстве.
Страницы с N/A запросто передают и ссылочный, и рейтинговый вес. Но не во всех случаях! Если ее нет в основном индексе - значит, не передает. Если есть - передает.
P.S. при обращении ко мне просьба воздерживаться от слов "глупости" и "бред", иначе я Вас по губам нашлепаю. Виртуально, но обидно и больно. Понятно?
Вероятность нарваться на фильтр за 500 ничтожно мала. Например, я взял за правило молодые сайты сразу же после написания десяти страниц отправлять по каталогам. Прекрасно работает, и никто не штрафует за то, что в течении недели появляется порядка 2000 бэков (по Yahoo) на, в общем-то, бросовый сайт!
Тут причина может быть в другом: тексты в анкорах купленных ссылок плохо релевантны содержанию страницы-акцептора (и сайта в целом). Я бы на основании Вашего анкор-листа прописал бы все анкорные словечки на той странице, куда ведут ссылки (как я понял, это главная страница).
И обязательно бы дождался, когда страница разок-другой пересканируется Гуглом: такое бывает, что когда акцептор резко набирает вес, да еще и не по одному запросу, он сначала отправляется "на пересчет" (так скажем) - то есть, Гугл пока не знает, как ранжировать: по-старому - вроде уже не положено, а по-новому - надо сперва проверить, правильно ли это будет. Неделя-другая - и решение будет принято, страница попадет на то место, которое заслужила.
На самом деле, с последних двух АПов исчисление PR стало вестись по-другому. Изменись вот какие моменты:
1. Если еще летом 2009 года PR получала любая страница, которой это положено по принципу перетекания ранга, то теперь - лишь те, которые признаны Гуглом "хорошими".
Например, раньше ничего не стоило набрать PR=4...5 за счет внутренних страниц. Как? Да элементарно! Создать на сайте несколько тысяч страниц (вернее, URL-адресов), состоящих только из заголовка и без малейших признаков контента, слинковать их в четко выраженное "дерево" - и готово! Если при этом на "морду" наставить ссылок из каталогов, для начального рывка, то через два...три АПа за счет обратной связи PR'ом обрастут все страницы, которые были созданы в рамках этой структуры. Оставалось лишь поставить на них необходимый текст, чтобы вывести в поиске на позициях, выше конкурентов, или вписать два-три слова всякой ерунды и отправить в САПу.
Сейчас такой метод - это прямая дорога в пропасть. Все подобные страницы Гугол исключит из основного индекса быстрее пули, они не получат PR и будут участвовать в поиске чисто номинально - а, точнее, лишь в исключительных ситуациях. Как следствие, никакой полезной обратной связи на главную они не создалут и Page Rank "морды" не повысят. Зато вреда для сайта они принесут немеряно!
2. На "критерия качества", который звучит в п.1, изменилось не только получение, но и отдача PR.
Например, если на момент АПа страница признана "хорошей" и она получила PR - то она его передает, как и положено. Но если веб-мастер при очередной редакции сделал ее не подходящей для основного индекса Гугла, то есть, испортил - то при следующем же обновлении значения ПР в тулбаре он свалится в N/A, и страница никакого рейтингового (да и ссылочного тоже) веса передавать не будет. Именно это и случилось со многими страницами каталогов ссылок: они перестали раздавать PR. Такое же произошло и с частью нормальных страниц, с которых веб-мастера ставили ссылки на другие сайты, не обязательно продажные (например, блоги).
Как следствие, в конце осени 2009 года началась форменная "ломка" у сайтов-наркоманов, удерживающихся на плаву исключительно за счет ссылочного ранжирования. Плохие доноры перестали работать вообще, а хорошие подорожали. А поскольку подход "купи ссылок - и нечего тут головой думать" среди оптимизаторов процветал, число обвалившихся сайтов измерялось тысячами. Особенно заметно это по Интернет-магазинам, страницы товаров которых повылетали из поиска на 99% - ведь на них никакого контента отродясь не водилось, не считая фотки товара и цены на него. По этой же причине сайты, приоритетом которых была внутренняя оптимизация, пошли вверх, и не только не попадали, а выросли по позициям и в трафике.
3. Разумеется, наличие или отсутсвие внешней ссылки на странице на PR не влияет. Иное дело, если наставить их там штук 50...100 - тогда и сама страница рухнет, и, соответственно, ее PR при ближайшем АПе станет "N/A".
К счастью, указанная тенденция не только сохранилась, но и стала более заметной в 2010 году. Благодаря ей у молодых сайтов вообще без ссылочного бюджета появился хороший шанс конкурировать с вскормленными на подачках спонсоров монстрами-"пустышками". Допустим, по основным ВЧ-запросам это сделать трудно - ведь именно на них пачками закупались ссылки. Но все поисковые запросы на главной странице не пропишешь, и на все страницы ссылок не укупишь!
Вот и получается, что на сайтах с плохим контентом в поиске участвуют не более 10% страниц, а остальные валяются балластом: на них надо либо проводить внутреннюю оптимизацию на всю катушку, либо на каждую покупать жирные ссылки. А кому это по карману, если таких страниц тысячи? Любая из подобных недо-страниц легко и просто теснится в поиске качественно написанной страницей с молодого сайта без единой покупной ссылки. И это хорошо!
Слушайте, перестаньте, Sower, а?
Ну что из того, что я опять Вас фэйсом об тэбл повожу? Вы же останетесь при своем мнении. Так и оставайтесь! Нечего нарываться, а то ведь и правда зайду и поффтыкаю в эти ссылки. Вам же стыдно будет.
Все, не хотел читать эту тему, но только из уважения к Вам (видя Ваше собщение последним) прочитал самый конец. Не верите в "сопли" - так Ваше право; я тоже очень во многое что не верю. Но если у меня на руках 95% результаты, а у кого-то нет и малейщего подобия - то, извините, что толку метать бисер? Еще раз говорю: Вы - вот Вы (показываю пальцем) - не сможете, как бы ни старарались, опровергнуть статистику. Ибо истинны нет, как Вы понимаете не хуже меня - но есть результаты сотни (или больше) экспиренсов, которые с поразительным постоянством сходятся.
Причем не в теории! Не примите меня за наглеца, но я без единой покупной ссылки (проверяется легко) за 3...4 месяца выдеру во все места по средне-конкурентной тематике практически любой RU-сайт, - и лишь на основании знаний об устройстве Гугла. Правда, придется самолично написть порядка 200...300 SEO-страниц, и чтобы лишь процентов 10 от них попали в "сопли". Это трудно, но реально, пока удается с большим трудом. Вуаля! Большего - не надо; дальше конкурентов Гугл сам добъет. Да, он мне по секрету на ушко нашептал. :)