Willie

Willie
Рейтинг
200
Регистрация
08.10.2008
zend921:
Отправил вам в личку урл.

Ага, получил; туда же и ответил.

zend921:
никто чтоли не подскажет?

А что ж не подсказать? У Вас нет нормального TITLE, вот и все.

svaxa:
... или лучше после её создания подождать недельку и медленно начать наращивать бэки?

Я бы только уточнил: "после появления ее в Гугле", а не после создания. Вот тогда постепенный рост ссылок на страницу будет выглядеть очень естественно и пристойно, как и подобает для ресурса с PR=6.

vpapazol:
Придется выбрать одну из трех ошибок
1. Либо ссылка страницы (морды) самой на себя

Это практически безболезненно, если только на одной странице будет такое, тем более главной. Остальные варианты намного хуже, особенно третий.

marenda:
... сейчас вожусь с h2. Много мороки - они почти все на двойном растягивающемся фоне, еще и динамически меняющимся, надо делать вложенные divы в дивовой же верстке.

А попробуйте прописать в CSS вот так: h2 {font-family: tahoma, arial, verdana, lucida, impact; font-size:15px; display:inline; color:#8B0000;} (разумеется, подставляя свои значения)? Это избавит от необходимости помещать заголовок H2 в контейнер DIV и гарантирует, что все Ваши заголовки второго уровня будут выглядеть узнаваемыми и одинаковыми. Кстати, фонт IMPACT - это специальный заголовочный фонт, довольно красивый, прекрасно понимается всеми браузерави и операционками.

marenda:
Переделка h2 займет явно не 5 минут, но постараюсь сделать "чисто" и в том плане, как вы сказали.

Ну хорошо, 30: за 5 минут можно только найти, где это формируется в CMS. Но зато работать будет на всех страницах и в итоге станет на одну головную боль меньше: Вы будете уверены, что с заголовками на сайте полный порядок.

===================

Willie добавил 10.03.2010 в 22:46

marenda:
Для пользователя красивее и более читаемо получается, ...

И все-таки: лучше решать это другими методами. У Гугла есть вполне однозначная рекомендация, как писать заголовки и заголовочные HTML-теги внутри текстов. Почему бы не следовать ей?

Да, Ваши варианты валидны с точки зрения кодов HTML. Но заголовок H1 на сайте-конкуренте, составленный, как говорит Yakov_Ch, выиграет у Вашего по-любому.

Вы не воспринимайте, что все, что советуется, надо делать обязательно. Можно и не делать - но тогда пресловутые конкуренты, кто по каждому пунктику сделают страницу хоть на копеечку, но лучше Вашей, окажутся выше при прочих равных условиях. Просто чистенькие и легкие сайты гораздо легче продвигать, чем обросшие ненужным мусором.

Sower:
Не пишите глупости. PR "N/A" означает лишь то, что данные не отображаются, но они могут быть, и довольно часто бывают, выше PR0.

N/A - это "Not Assigned", то есть, значение формально считается не присвоенным. Запросто бывает, как Вы сказали: что страница вес уже имеет, и неплохой такой, просто не обновлялись значения в тулбаре. Но вот если сразу после АПа такое случилось, да еще со страницей, которая до этого имела PR - значит, что-то не ладно в Датском королевстве.

Sower:
А то, что страницы с PR "N/A" не передают вообще ни какого веса, это уж, извините меня, полный бред. Наверное кроме вас ни кто так больше и не считает.

Страницы с N/A запросто передают и ссылочный, и рейтинговый вес. Но не во всех случаях! Если ее нет в основном индексе - значит, не передает. Если есть - передает.

P.S. при обращении ко мне просьба воздерживаться от слов "глупости" и "бред", иначе я Вас по губам нашлепаю. Виртуально, но обидно и больно. Понятно?

WhiteFalke:
... Хотел видите ли разбавить точный анкор лист :( Как итог в гугле почти все запросы вылетели просто из выдачи, хотя сидели довольно долго с топ 1 по топ 30 (запросов много).

Вероятность нарваться на фильтр за 500 ничтожно мала. Например, я взял за правило молодые сайты сразу же после написания десяти страниц отправлять по каталогам. Прекрасно работает, и никто не штрафует за то, что в течении недели появляется порядка 2000 бэков (по Yahoo) на, в общем-то, бросовый сайт!

Тут причина может быть в другом: тексты в анкорах купленных ссылок плохо релевантны содержанию страницы-акцептора (и сайта в целом). Я бы на основании Вашего анкор-листа прописал бы все анкорные словечки на той странице, куда ведут ссылки (как я понял, это главная страница).

И обязательно бы дождался, когда страница разок-другой пересканируется Гуглом: такое бывает, что когда акцептор резко набирает вес, да еще и не по одному запросу, он сначала отправляется "на пересчет" (так скажем) - то есть, Гугл пока не знает, как ранжировать: по-старому - вроде уже не положено, а по-новому - надо сперва проверить, правильно ли это будет. Неделя-другая - и решение будет принято, страница попадет на то место, которое заслужила.

Evil_Programmers:
Как известно, гугл изменил метод рассчета PR, ...

На самом деле, с последних двух АПов исчисление PR стало вестись по-другому. Изменись вот какие моменты:

1. Если еще летом 2009 года PR получала любая страница, которой это положено по принципу перетекания ранга, то теперь - лишь те, которые признаны Гуглом "хорошими".

Например, раньше ничего не стоило набрать PR=4...5 за счет внутренних страниц. Как? Да элементарно! Создать на сайте несколько тысяч страниц (вернее, URL-адресов), состоящих только из заголовка и без малейших признаков контента, слинковать их в четко выраженное "дерево" - и готово! Если при этом на "морду" наставить ссылок из каталогов, для начального рывка, то через два...три АПа за счет обратной связи PR'ом обрастут все страницы, которые были созданы в рамках этой структуры. Оставалось лишь поставить на них необходимый текст, чтобы вывести в поиске на позициях, выше конкурентов, или вписать два-три слова всякой ерунды и отправить в САПу.

Сейчас такой метод - это прямая дорога в пропасть. Все подобные страницы Гугол исключит из основного индекса быстрее пули, они не получат PR и будут участвовать в поиске чисто номинально - а, точнее, лишь в исключительных ситуациях. Как следствие, никакой полезной обратной связи на главную они не создалут и Page Rank "морды" не повысят. Зато вреда для сайта они принесут немеряно!

2. На "критерия качества", который звучит в п.1, изменилось не только получение, но и отдача PR.

Например, если на момент АПа страница признана "хорошей" и она получила PR - то она его передает, как и положено. Но если веб-мастер при очередной редакции сделал ее не подходящей для основного индекса Гугла, то есть, испортил - то при следующем же обновлении значения ПР в тулбаре он свалится в N/A, и страница никакого рейтингового (да и ссылочного тоже) веса передавать не будет. Именно это и случилось со многими страницами каталогов ссылок: они перестали раздавать PR. Такое же произошло и с частью нормальных страниц, с которых веб-мастера ставили ссылки на другие сайты, не обязательно продажные (например, блоги).

Как следствие, в конце осени 2009 года началась форменная "ломка" у сайтов-наркоманов, удерживающихся на плаву исключительно за счет ссылочного ранжирования. Плохие доноры перестали работать вообще, а хорошие подорожали. А поскольку подход "купи ссылок - и нечего тут головой думать" среди оптимизаторов процветал, число обвалившихся сайтов измерялось тысячами. Особенно заметно это по Интернет-магазинам, страницы товаров которых повылетали из поиска на 99% - ведь на них никакого контента отродясь не водилось, не считая фотки товара и цены на него. По этой же причине сайты, приоритетом которых была внутренняя оптимизация, пошли вверх, и не только не попадали, а выросли по позициям и в трафике.

3. Разумеется, наличие или отсутсвие внешней ссылки на странице на PR не влияет. Иное дело, если наставить их там штук 50...100 - тогда и сама страница рухнет, и, соответственно, ее PR при ближайшем АПе станет "N/A".

К счастью, указанная тенденция не только сохранилась, но и стала более заметной в 2010 году. Благодаря ей у молодых сайтов вообще без ссылочного бюджета появился хороший шанс конкурировать с вскормленными на подачках спонсоров монстрами-"пустышками". Допустим, по основным ВЧ-запросам это сделать трудно - ведь именно на них пачками закупались ссылки. Но все поисковые запросы на главной странице не пропишешь, и на все страницы ссылок не укупишь!

Вот и получается, что на сайтах с плохим контентом в поиске участвуют не более 10% страниц, а остальные валяются балластом: на них надо либо проводить внутреннюю оптимизацию на всю катушку, либо на каждую покупать жирные ссылки. А кому это по карману, если таких страниц тысячи? Любая из подобных недо-страниц легко и просто теснится в поиске качественно написанной страницей с молодого сайта без единой покупной ссылки. И это хорошо!

Слушайте, перестаньте, Sower, а?

Ну что из того, что я опять Вас фэйсом об тэбл повожу? Вы же останетесь при своем мнении. Так и оставайтесь! Нечего нарываться, а то ведь и правда зайду и поффтыкаю в эти ссылки. Вам же стыдно будет.

Все, не хотел читать эту тему, но только из уважения к Вам (видя Ваше собщение последним) прочитал самый конец. Не верите в "сопли" - так Ваше право; я тоже очень во многое что не верю. Но если у меня на руках 95% результаты, а у кого-то нет и малейщего подобия - то, извините, что толку метать бисер? Еще раз говорю: Вы - вот Вы (показываю пальцем) - не сможете, как бы ни старарались, опровергнуть статистику. Ибо истинны нет, как Вы понимаете не хуже меня - но есть результаты сотни (или больше) экспиренсов, которые с поразительным постоянством сходятся.

Причем не в теории! Не примите меня за наглеца, но я без единой покупной ссылки (проверяется легко) за 3...4 месяца выдеру во все места по средне-конкурентной тематике практически любой RU-сайт, - и лишь на основании знаний об устройстве Гугла. Правда, придется самолично написть порядка 200...300 SEO-страниц, и чтобы лишь процентов 10 от них попали в "сопли". Это трудно, но реально, пока удается с большим трудом. Вуаля! Большего - не надо; дальше конкурентов Гугл сам добъет. Да, он мне по секрету на ушко нашептал. :)

Всего: 1891