ErrorNeo

ErrorNeo
Рейтинг
57
Регистрация
25.09.2013
Keal:
Также здесь не рассмотрен момент, например если мы ссылаемся на одну и ту же страницу три раза в коде (в меню, в статье, в футере), что происходит с PageRank? Он равномерно делится между этими тремя ссылками? Или неравномерно? Или учитывается только самая верхняя, а остальные, которые мы ставим, это лишнее разбазаривание PageRanka?

А что происходит когда внутри сайта создаются дубли страниц, а затем удаляются самим гуглом, присваивается ли вес, который ушел на дублирующую страницу, основной странице (после удаления дублирующейся страницы из выдачи). Или, если мы не поставили canonical, то не присваивается? И вес утекает вникуда?

А что происходит когда страница ссылается сама на себя? Так называемые циклические ссылки, сама страница на себя же вес передать не может? Следовательно три раза сославшись на саму себя мы "проливаем" pagerank в никуда, то есть теряем, но не получаем? Или всё же Google понимает, что из-за особенностей разных CMS, это может случаться, иногда страница дважды ссылается на саму себя (в меню, в хлебных крошках, еще где-то), а иногда и 10 раз на саму себя. Так вот, согласно теории pagerank, ссылаться трижды на саму себя, или 10 раз на саму себя, это две большие разницы.

- а вы видели, чтобы перечисленное вами было где-то было раскрыто?

Важность PageRank

Вопроса о том, важен ли PR - нет. Конечно же PR важен! Google и не отрицает, что PageRank по прежнему имеет значение, помогая поисковой системе определить самые авторитетные и надежные источники информации по каждому поисковому запросу. PR всего лишь перестал быть доступным публично.

В конце концов, вы всё еще можете понять, что формула для более высокого PageRank вашего сайта:

качество (но не количество!) входящих ссылок + эффект от внутренней перелинковки

Это значит, что оптимизируя сайт мы неизбежно следуем рекомендациям по увеличению PR.

Более того, механизм PR универсален, и может быть применён в любой области. На данный момент этот алгоритм применяется в целом ряде научно-практических областей, связанных с анализом и структурированием информации.

Увеличение PageRank

1. Качественные входящие ссылки

Не смотря на то, что PageRank более недоступен публично, существуют альтернативные способы его оценки.

  • Сервис megaindex.ru позволяет просматривать LinkRank обратных ссылок на любой домен (здесь)
  • Сервис majestic.com позволяет просматривать "Доверие" и "Известность" каждой из входящих ссылок для подтвержденных в аккаунте доменов совершенно бесплатно (здесь)
  • Программа seo spyglass позволяет в бесплатном режиме проводить оценку LinkRank входящих ссылок по любому домену
  • Сервис megaindex.com позволяет определить значимость некоторого количества входящих ссылок в бесплатном режиме.
  • Используя кнопки "сортировки" на megaindex.com можно определить ранг и вес нескольких десятков обратных ссылок для каждого домена.
  • Сервис SEOprofiler позволяет бесплатно оценить "значимость" любой ссылки или домена (здесь)
  • Сервис cognitiveseo.com позволяет бесплатно оценить "значимость" любой ссылки или домена
  • Сервис sbup.com позволяет бесплатно оценить "Real PageRank" любого домена
  • Сервис extlinks.com позволяет оценить "Ранг" любого домена
  • Сервис seokicks.de позволяет оценить "Domainpop"(популярность) любого домена, и DomainRank ссылающихся доменов
  • Сервис xtool.ru позволяет оценить "XTrust" домена, который отражает "доверие" данного сервиса с домену
  • а так же некоторые другие, не имеющие бесплатных режимов

2. Внутренняя перелинковка

В то время, как внешние ссылки могут от вас и не зависеть, внутренняя перелинковка всегда находится под Вашим полным контролем. Она позволяет сделать путешествие по сайту одинаково приятным как для пользователей, так и для поисковых роботов.

По возможности, старайтесь следовать следующим рекомендациям:

    Структура сайта не должна быть слишком глубокойСчитается оптимальным, чтобы страницы находились на расстоянии 2-3 кликов от стартовой страницы. Мало кому захочется кликать 10 раз, чтобы наконец попасть на нужную страницу сайта. На слишком сложных сайтах эта цель может быть достигнута за счёт хлебных крошек (breadcrumbs), наборов #тэгов или поиска по сайту.
    Структура сайта не должна быть слишком сложнойВремя, необходимое пользователю на то, чтобы найти ссылку, ведущую в направлении "искомой" информации должно быть небольшим. Ссылочная структура сайта должна стремиться к тому, чтобы быть интуитивной, ожидаемой и понятной.
    Правильно используйте атрибут nofollowВ настоящее время этот прием не работает, т.к. ссылочный вес распределяется между всеми исходящими ссылками, включая "nofollow". Но особенность "nofollow" ссылок в том, что они, забирая у страницы вес, не передают его дальше. Таким образом внутренние ссылки с атрибутом "nofollow" лишь вредят сайту, и в случае с внутренними ссылками - лучше полностью удалить ссылку, чем делать её nofollow

Будущее PageRank

Одним из последствий введения PageRank и злоупотреблений алгоритмами его расчёта оказалось то, что любые внешние ссылки начали восприниматься как "созданные в первую очередь для поисковых роботов". В результате, не только у Google возникли проблемы со своим детищем. Даже такие мега-сайты, как Википедия, The Next Web, Форбс и многие другие начали автоматически присваивать "nofollow" атрибут всем исходящим ссылкам, а это означало всё меньше и меньше передаваемых по ссылкам "голосов", даже от сайтов, которые изначально должны были быть их главными, самыми доверенными источниками. Но если все начнут использовать "nofollow" и сайты перестанут передавать друг другу вес, что же тогда будет служить ориентиром для поисковых роботов при определении наиболее релевантных, надежных и авторитетных источников информации?

Очевидно, что что-то новое должно было появиться чтобы занять "пустоту", образовавшуюся в результате введения атрибута "nofollow". И во все в большем и большем количестве источников появляются мнения о том, что поисковые роботы могут использовать так называемые "предполагаемые ссылки" при ранжировании сайтов.

"Предполагаемые ссылки" это, к примеру, упоминания бренда компании. Как правило подобные упоминания происходят с каким-либо смысловым оттенком - положительным, нейтральным или отрицательным. И этот оттенок определяет репутацию сайта, которая, в свою очередь, является фактором ранжирования для поисковых систем.

Я не утверждаю, что эти "безссылочные ссылки" на 100% являются сигналами, используемыми при ранжировании. И нет никаких достоверных свидетельств того, что это так, за исключением того что Google и Bing делают в этом отношении намёки.

К примеру высказывание Gary Illyes (автора "Fred") по поводу того, что именно следует делать вебмастерам для того, чтобы "подстроиться" под новый алгоритм Fred (или, точнее, под изменения, произошедшие с общим алгоритмом ранжирования Google, которые по утверждению Gary Illyes не являются отдельным алгоритмом или фильтром)

Basically, if you publish high quality content that is highly cited on the internet – and I’m not talking about just links, but also mentions on social networks and people talking about your branding, crap like that.
[audience laughter]
Then, I shouldn’t have said that right? Then you are doing great
В общем случае, если вы публикуете качественные материалы, которые тут и там обсуждают в интернете - и я не говорю только об одних ссылках, но так же и об упоминаниях в соц. сетях, людях, обсуждающих ваш бренд и прочей подобной ерунде
[смех в аудитории]
Тогда ... наверное мне не стоило говорить об этом, правда? Тогда это значит, что у вас всё получается просто отлично

Так же патент на алгоритм Google Panda говорит о том, что "подразумеваемые ссылки" могут иметь такой же ссылочный вес, как и обычные.

И хотя обычные ссылки по прежнему имеют огромное значение, вы можете попробовать новую "безссылочную" технику. И даже в случае, если работоспособность этой техники не подтверждена, это всё равно техника по наращиванию репутации Вашего бренда и известности Вашей компании.

====================

Теперь, я надеюсь, алгоритм ранжирования PageRank не кажется Вам таким же запутанным и сложным, как прежде. Но я хочу обратить Ваше внимание - хоть это и первый алгоритм ранжирования, реализованный Google, он далеко не единственный. На сегодняшний день есть множество факторов ранжирования, и каждый из них имеет значение при определении того, какая именно страница находится выше в поисковой выдаче.

Самым важным фактором считается содержимое сайта. Ну.. вы же знаете - "контент - король сайта", без этого никак.

А "удобство пользования сайтом" (user experience) - новый "чёрный ход", который становится особенно значимым с вводом нового Скоростного Апдейта от Google (здесь о влиянии Speed Update на выдачу)

А что о PageRank думаете Вы? Делитесь со мной в комментариях!

Автор текста: Valerie Niechai

Автор ru перевода, редактор: ErrorNeo

Примечание редактора:

Текст переписан своими словами с сохранением смысла и содержит больше материалов, чем оригинал.

Убран навязчивый акцент на продуктах компании SEO Powersuite.

Публикуется в двух источниках: searchengines и sbup

если из общей массы ссылок - процентов 10 - хорошие профили на авторитетных ресурсах - почему нет. Думаю приносит пользу.

Но таких профилей мало. И их лучше делать самостоятельно и руками, а не в рамках непонятных "прогонов"

А делать сайты, на которые люби "сами бы делали ссылки" - ну-ну. Лет за пять абстрактно идеальный сайт так и продвинется. Сам.)

Хотя и такое возможно. Если делать сайты с качеством типа http://seadesign.ru - да. могут ставить. Как "пример" офигенного сайта.

На такое не стыдно поставить и естественную. Но такое сложно сделать. Проще качать обычный сайт ссылками, чем делать шедевр который гипотетически вырастет сам

как рассчитать стоимость продвижения сайта

1. выбираем 2-3 главных запроса, по которым требуется, допустим, в топ-3

2. заходим на первую страницу яндекса и гугла, лучше гугла, и записываем все домены.

3. пробиваем все эти домены через все известные пузомерки\оценивалки\инструменты и смотрим, сколько там в среднем "на кону". Т.е смотрим, например. majestic стату, мегаиндекс (ru и com), sbup, extlinks, ради интереса смотрим что там в истории по домену на xtool, смотрим для справки алекса ранк чтобы прикинуть трафик. Если есть доступ к менее публично доступным источникам - смотрим и их.

4. Прикидываем средние значения. Прикидываем, сколько нужно ресурсов (как времени так и расходов), чтобы такие значения получить.

Думаем. есть ли у нас столько. Браться за то, что тебе не под силу - тупняк.

Если по силам - называем какой-нибудь сопоставимый ценник. Например в 2 раза выше, чем мы оценили расходов в среднем по конкурентам. Или в 4 раза, чтобы заявить права на "топ".

Это если с точки зрения специалиста.

С точки зрения клиента - понятия не имею как оценивать.

Зашел на другой форум. Там сразу скинули десяток прокси и еще десяток дали про запах, хотя мне нужен был всего лишь один.
Каждый второй прокси работал даже лучше моего интернета и ни один не был в черном списке.

- уверен вранье. мне в аналогичной ситуации требовалось несколько чистых прокси - найти "на форумах или в паблике" нереально.

Тем более таких, чтобы не определялись как прокси.

Решил:

написал софт, закинул 100 прокси, по ним софт заюзал гугл и спарсил все прокси со страниц, где были первые 100. Стало 10.000.

Дальше запустил для тех 10.000. Гуглил "неправильно" - время бана IP составляло всего 40 секунд, но за ночь собрало тысяч 400. Потом отчекал.

Результат - один хлам всё равно :D Рабочие, конечно, были. Но все равно хлам.

Потом потребовалось больше - составил 1 Гб текстовый файл со списком IP, которые заранее известно что выделены. IP рандомно перемешанные, чтобы не светить подсетям что я их прям вот так сканю.

И прочекал своим софтом. Долго заняло) И все равно вышло всего несколько тысяч проксей.

Дурацкая затея кароче была. Хотя проксики тогда все-таки добыл)

если что, закон запрещает банкам сообщать клиентам о причинах блокировки счёта и отказа от дальнейшего сотрудничества если причина касается "противодействию легализации и отмыванию".

Так же запрещено и сообщать о процедурах, направленных на это "противодействие"

Саму эту информацию сообщать - вроде не запрещено. Месяца три назад видел как об этом написал один из офиц. представителей какого-то крупного банка на banki.ru в аналогичной конфликтной ситуацией с одним ИП, накатавшим негативный отзыв.

Возможно для них: вы просто получаете бабло из-за рубежа и 100% этого бабла забираете себе лично. Расходов по предпринимательству нет. Может через вас США финансирует какую-нибудь нехорошую деятельность))

Ну это я к тому, что их тоже можно попытаться понять.

я вообще то накручивал такую фигню, точнее - пытался сыграть в плюс. Результат - нулевой.

Я даже рефспамил сам себя, точнее подменял рефёреров людям, и в метриках светилось, что они переходят по ссылкам на разных ресурсах, где эти ссылки реально есть. Люди реальные. Подменял только реферер на нужный.

Результат - даже после полугода треть ссылок, с которых судя по метрикам переходили пользователи - так и не были проиндексированы ни Яндекс ни Гугл.

Так же обыгрывал, размещая в рекламе ссылки, которые редиректили на редиректы на мой сайт с соц-сетей. В результате сайт нормально открывался, но реферер был соцсеть. Точнее несколько - рандомом делалось. Результат, за несколько месяцев. - Нулевой. Что люди заходили бы прямо, что через редирект с соцсети (а в соцсетях реально были эти ссылки) - не увидел разницы даже за 3 месяца.

В конце концов предположил, что ПС вообще плюют на ПФ тех, кто перешел из сторонних источников

Наверное задолбали их накрутчики и рефспамеры.))

Во-первых. Сайт ваш, и вы хозяин своей метрики. Вы может удивитесь, но можно поставить через джаваскрипт задержку на активацию любых скриптов, включая метрику, аналитику и остальное. Точно так же можно не активировать метрики и при ряде других условий.

Пример: http://vikup34.com

Метрики грузятся через

<script type="text/javascript" src="/js/metrica.js?1.1" async="async"></script>

Файл с метриками: http://vikup34.com/js/metrica.js обрамлён условием if((window.innerWidth>900) что одновременно отсекает загрузку метрик на мобильных устройствах (подстраивал под Lighthouse - материал по этому поводу)

Ну и бот не каждый скажет что у него window.innerWidth 900+. Хотя если бы парили именно с 0 сек, поставил бы еще и задержку.

Хотя метрики с задержкой тоже есть. Точнее счётчики. Тоже на главной.


<span id="frmeasync"></span>
<script type="text/javascript">
if(screen.availWidth>900)
{
var delayasync = 2000;
var capPage = ['async.html'];
if(top.location!=self.location)setTimeout(function(){document.getElementById('frmeasync').innerHTML = '<if'+'rame border="0" scrolling="no" style="dis'+'play:n'+'one; wid'+'th: 0px; he'+'ight: 0px;" sr'+'c="'+capPage[0]+'"></if'+'rame>'}, delayasync);
}
</script>
- все счётчики вынесены на отдельную страницу, и эта страница грузиться через 2 сек после загрузки сайта. Чтобы сайт быстрее открывался, и только если экран шире 900px. На мобильниках и вовсе не грузятся - нечего тормоза на сайт добавлять.

Большинство думает, что размещать всё надо прям так вот на главной или на всех страницах сайта. На практике - как сделаешь так и будет.

Пишите чтобы боты не могли выполняя скрипты активировать загрузку аналитик, и она их даже не увидит

xVOVAx:
ну если тебе платят хотябы пол штуки зелени в месяц - тогда согласен , хотя при таких ценниках и штуцер нормально будет

платят) Это даже не "seo", это по сути реализация проекта - "создать сайт, и чтобы люди которым нужно срочно продать недвижимость - находили его и обращались к нам".

Проект максимум - так как мы лучшие, сайт должен быть самый солидный и вообще мы должны быть первые)

На входе: идея + телефоны компании + адрес.

Всё остальное - я.)

Даже домен на меня, это никого не парит. И оплата - пока сайт работает и приносит заказы - будет и оплата. А как это достигается - забота специалиста.

Разумная политика.)

xVOVAx:
та я знаю - если это твоя контора конечно

Кстати в авто больше ключей и частотность , в гугле тоже
а тебя нема на первой странице
работы непочатый край

понятно что не моя) Это самая богатая контора в регионе, у которой не было нормального сайта. Там и без сайтов заказы стекаются отовсюду, через риэлторов, которым отстёгивают хорошую комиссию. Ну.. треть заказов. 2\3 наверное уходит конкуретнтам. Если благодаря сайту удастся отвоевать 2\3 рынка... да еще и на комиссиионных риэлторам экономия идет, т.к. заказы прямые.

ну в общем бизнес, что с него взять)

А по авто - да, видимости очень мало. Это в принципе непаханное поле не только для сайта, но и для компании. Хотя боссы больше любят именно недвижку.

Да и продвигать одновременно по 2 группам ключей - тоже проблемно. Обособил авто выкуп на поддомене http://avto.vikup34.com и редирект с http://avtovikup34.com но никак не сказалось на усилении позиций. Как был топ-20 так и остался пока что) Но вроде понемногу растёт с прокачкой ключей недвижки.

По-моему, рекламная компания по этим авто-доменам скорее просто прокачала домен. Кто-то даже звонил, хотел купить авто. Типа ему поисковики показали что у нас можно купить автомобиль.

В общем ПС видимо просто не вдупляют, что компания может одновременно заниматься 2 видами деятельности, тогда как все конкуренты - либо тем либо тем.

Новый план, на фоне этого проекта - сделать топ-1 риэлторское агентство в Волгоградской Области 😂

Пока что у них - просто свой внутренный отдел по реализации выкупленного, решили его сделать обособленным и прокачать как полноценное риэлторское агентстово. Топ-1 конечно же. Офис крутой уже сделали, человека, который предложил идею делать сайт и расширяться "в интернет" - до зам директора апнули. Работников нанимает.

Сайт по риэлторскому агентству - сложно. Конкурентам лет по 10, монстры. И .. в общем непросто. Может возьмусь. Но пока что хоть по этому проекту по ключам недвижимости весь потенциал реализовать надо.

Всего: 280