Антоний Казанский

Антоний Казанский
Рейтинг
787
Регистрация
12.04.2007
Должность
Частный интернет-маркетолог и SEO специалист
Интересы
Интернет-маркетинг, SEO, интернет реклама
Подробности на сайте https://akazansky.ru
Hkey:
А зря.
Метакейс учитываются всеми поисковиками, хотя и не так сильно как лет десять назад.

В официальных материалах Яши есть примерно такое утверждение: "Метакеи учитываются, если они есть на странице в обычном тексте".

Учитывать слабо или сильно нельзя. Фраза вообще построена неверно.

Либо учитывается, либо не учитывается, либо учитывается частично.

Слабо/сильно - это фактор влиянения на ранжирование.

Гугл, Рамблер и Яндекс keywords-ы игнорируют, без всякого рода ссылок на примерно натянутые утверждения, которых впомине нет.


На морде вы метакеи ставите? Если не ставите, то ваша квалификация низкая и

Это просто смешно.


Если же ставите, то вы сами же себе противоречите и опять-таки к дальнейшим вашим утверждениям не имеет смысла прислушиваться. ЧТД.

Я ставлю их для того, чтобы самому ориентироваться на страницах, для меня они несут лишь прикладную функцию.


Скрипт не формирует титл страницы. Скрипт формирует титлы ссылок. Титлы ссылки, это хинт, который появляются при наведении на нее мышкой.

Тогда это еще бесполезнее, чем я думал.


Посмотрите же наконец-то на скрин облака в первом посте, а то, что вы говорите совершенно не соответствует действительности. Все переходы осмыслены. Поскольку семантическое облако является плодом труда самых сложных, на данное время, аналитических систем (поисковиков) и сотен или тысяч пользователей, а не одного-двух человек. Вероятность что один человек ошибётся на порядок больше, чем вероятность того, что сотни человек ошибутся одновременно. Этот принцип активно используется в Вебе, например, в рейтингах (Например, IMDB, Кинопоиск или в других сайтах где есть рейтинг) или в Википедии.
Почему семантическое облако лучше?
Во-первых, в облаке тегов любой переход идет на страницу-список анонсов постов (страницу метки). Пользователя интересует не сам список, а конечный пост, который нужно еще найти в этом списке, и сделать лишний переход. В семантическом облаке, где-то половина ссылок идёт на конечные посты (если они интересны пользователям).
Во-вторых, в облаке тегов размер ссылки зависит не от интереса к ней пользователя, а от числа постов в метке, которое очень слабо коррелирует с интересностью данной метки для пользователей. В семантическом облаке размер ссылки зависит от интереса пользователей к данной конкретной теме. Например, ресторанов в любом городе в разы больше, чем ночных клубов, но это далеко не значит в рестораны ходит больше людей, чем в клубы, просто клуб вмещает в среднем больше народа, чем ресторан.
В-третьих, для облако меток это функция далеко не каждого движка, а семантическое облако можно поставить на любой движок.
В-четвертых, наличие облака меток на сайте, накладывает дополнительные ограничения на использование меток для SEO целей. Например, у вас есть метка "гостиницы одессы", но вам нужно создать страницы-метки релевантные по запросам "гостиницы одессы недорого","гостиницы одессы у моря","гостиницы одессы в центре","гостиницы одессы в Аркадии"... Если вы создадите такие метки, то облако меток превратится в кашу. Конечно, можно исключить их из облака, но это дополнительный гембель (облако вообще можно наверстать вручную).

Ну хорошо, пускай будет облако. Но так или иначе здесь два момента.

1) Создание описанного облака далеко не исчерпывает технический аспект внутренней оптимизации, а значит все остальное придется делать вручную.

2) Как бы не было привлекательно ваше облако в ваших объяснениях, шанс нарваться на санкцию Яндекса есть вполне вероятный.


Вы ещё в Гугл Аналитиксе не шарите? Думаю там не сложно будет разобратся (когда график вверх идет это хорошо, когда вниз - плохо).

Вы не старайтесь поддеть мое профессиональное самолюбие, заметьте, упрекнуть вас в вашей некомпетенции я даже не пытаюсь. График "вниз" график "вверх" - это ни о чем. Факторов - миллион. Заниматься аналитикой вашего трафика я желанием не горю, я говорил о том, что если вы сможете наглядно представить свои аналитические выкладыки, тогда да, это интересно, а так в каждом емком проекте можно копаться бесконечно и в результате, я уверен, 90% вашего вероятно успеха будет вряд ли связан с использованием вашего скрипта. Я тоже могу представить статистику, которая шагает круто вверх и что?


anthony вы так и не ответили на мой вопрос: "Судя по вашим фразам, вы не вели проекты с более чем 50 ключевыми страницами, прав ли я?". Молчание знак согласия?

Я веду городской портал, у которого десятки целевых страниц, нацеленный на сбор трафика информационно-справочного характера. Что вам даст мой ответ?

Hkey:

Т.е. вы согласны, что внутр. оптимизация, когда страниц много происходит, через автоматические методы. Причем эти методы будут детерминантными (обобщенные правила), которые во многих конкретных случаях будут не оптимальными и менее гибкими. HTracer же использует информацию о переходах, что позволяет ему гибко подстраиваться под каждую страницу. Допустим, вы хороший программист и потратили 2-3 дня на составление/редактирование кода с целью оптимизации. (в реальности оптимизатор в среднем программист не очень хороший (это же не основная его профессия) и тратит намного меньше времени на исправления кода клиентского сайта). Но даже в нашем очень хорошем случае, оптимизатор-программист не сможет учесть всех тонкостей. Например, он создал правило добавлять в метакейвордс "отель X, гостиница X" (X - название), для каждого поста в рубрике "гостиницы", однако вебмастер добавил пару санаториев и баз отдыха и это правило оказалось не универсальным.

Метакейворды для ныненшнего SEO - это вообще рудименты прошлого. Я их не использую и уверен, что большинство оптимизаторов тоже. Что касается исправления кода, то оптимизатор должен создавать и организовывать релевантный контент. HTracer все равно в должной мере этого делать не будет.


Во-первых, вопрос времени.

Любое серьезное дело требует времени.


Во-вторых, HTracer оптимизирует лучше, чем ваш скрипт, если, конечно вы не потратите на него пару недель.

А причем тут мои скрипты? :) Мы, вроде, ничего и не сравнивали..


В-третьих, оптимизатор, может и не знать PHP.

Плох тот оптимизатор, который не имеет представления о PHP.


В-четвертых, у клиентов, обычно, разные движки, и большую часть времени вам придется изучать движок, его архитектуру.

Правильно заметили. Чаще всего это и приходится делать. Но, извините, это неотъемлимая часть работы оптимизатора. Без изучения (хотя бы на уровне структурной организации) клиентских движков оптимизатор далеко не уедет.


Ничего править не придется. HTracer не генерит текст, это не дорген. Он прописывает альты, титлы и метакейвордс.

Работа со служебными полями TITLE, DESCRIPTION, KEYWORDS (последний потерял свое функциональное значение), это лишь незначительная часть общей работы по оптимизации.

Кроме того, нужно понимать вот что.. формирование бесконечного длинного хвоста из ключевых слов TITLE - это моветон. Как пользователь, я стараюсь избегать таких страниц при просмотрах, потому что есть большой процент вероятности нарваться на разного рода доргены с бредотекстом.

А после DESCRIPTION - это вообще опорный для многих пользователей текст и его нужно обдуманно формулировать, чтобы он был презентабельным и читаемым. Доверить эту работу HTracer - сомнительно.


Причем, чем больше переходов по ключу тем более вероятно, что он пропишется в титлах и альтах. В метакевордс и в облаках и блоках внутренних не прописываются редкие ключи. А ошибочных наборов намного меньше, чем правильных. Поисковики исправляют грамматические ошибки. Поэтому вероятность того, что пользователь увидеть неправильное написание крайне мало. Скорей он увидит грамматические ошибки на сайте в самих текстах, к которым HTracer не имеет отношения.

Есть довольно заметная часть пустых, тематически некоррелирующих запросов. Нагонять в TITLE эти форумлировки далеко невсегда нужно.


Если вы почему-то боитесь использовать облака, то облако можно превратить в простой блок ссылок произвольного вида. Если выдавать вместо облака тегов, ссылки на результаты поиска, то действительно можно получить банан. Результаты поиска должны быть скрыты от индексации по правилам Яши. Банят не за облако, а за любой блок ссылок на страницы поиска по сайту (к поисковым страницам нужно причислить и комбинации нескольких тегов). Это не имеет никакого отношения к теме. Семантическое облако намного меньше похоже, чем облако тегов, но это спамное облако, за которое банят, поскольку в половине случаев перекидывает пользователя на страницу конечной записи, а не на страницу-список.

Облако, даже если оно имеет место быть, должно быть элементом дружественной для пользователя навигации и должно предлагать осмысленные переходы на целевые страницы сайта. Осмысленные переходы - это в любом случае ручная работа проектировщика сайта и оптимизатора.


Серафим,anthony,Str256 В личку пишите мыла на GMAIL, подключу вас к своему аналитиксу.

И разбирайтесь где у меня как было и что из этого получилось - как хотите? :)

Hkey:
Как вы себе представляете работу оптимизатора начиная с 50 страниц? По вашим репликам понятно, что вы не вели подобные проекты, я прав? Начиная от 50 страниц, внутренняя оптимизация проходит через изменение php кода, поскольку вручную вести ее нереально. Т.е. оптимизация и так частично автоматическая.

50 страниц чего именно? 50 целевых релевантных страниц по которым идет трафик?

Опять такие странная фраза "внутренняя оптимизация проходит через изменение php кода" - и что?

Да, что-то приходится менять, но я не вижу в этом никаких архисложностей.

Возможно, я вас не совсем правильно понял.

Hkey:

Случайный трафик, скрипт может нагенерировать, но его не больше нескольких прооцентов.

А сколько текстового мусора он нагенерит в связи с этими случайными формулировками запросов и сколько вручную придется править?

Hkey:

Либо я тупой и не понимаю очевидности этого утверждения, либо вы с Серафимом состоите в тайной секте противников облака тегов.

Отнюдь. У нас Серафимом нет никакой надуманной родственности взглядов, как можно заметить по переписке у нас достаточно расхождений в понимании и методологии своих SEO подходов.

Просто элементарно на облаке тегов я собаку съел, когда сайт уходил в бан Яндекса за "использование SEO манипуляций" и после сноса облака тегов - сайт возвращали в индекс.

Не знаю, какой опыт у Серафима. Но случаев, когда Яндекс выдавал по банану сайтам с облаками тегов на форуме достаточно.

Hkey:

Это смешно просто. Вы вдумайтесь что вы пишите Облако тегов для Яндекса красная тряпка. А ничего страшного, что это визитная карточка Веб 2.0? Ничего что на 30% сайтов она есть?!... Я все понял Платон нажрался ЛСД, начал ловить глюки и приказал банить сайты с облаком тегов.

Понимаете, формулировки ссылок, которые будут в облаке тегов в виду их SEO ориентированности будут мало походить на дружественную для пользователей навигацию. И поисковик абсолютно будет прав, когда вот за такие вот награмождений забанит нахрен сайт, не смотря ни на какую претензиозность в ВЕБ 2.0. Я абсолютно уверен, что релеваность страницы должна складываться и емкой, содержательно стороны конкретного веб документа. А все это подтосовывание статического веса, благодаря муссированому генерированию наработанных SEO перелинковок - это что-то из области дорвейстроительства.

anthony_ добавил 24.06.2010 в 01:32

-= Serafim =-:
Hkey, чтобы укоротить все эти выяснения, поступим проще. У Вас есть пример рабочий сайта, где трафик вырос после установки скрипта? Посмотреть статистику и посмотреть на сам сайт, его внешний вид.

Таки-да, разумный довод. Если уважаемый автор скрипта представит проект, где наглядно продемонстировано что представлял собой исходный сайт (с выкладкой по посещаемости) и какие результаты были достигнуты благодаря использыванию скрипта, вот тогда да.. для меня это достаточный аргумент для того, чтобы углубиться в понимании серьезной эффективности этого инструмента.

Пока это все теоретические "рассуждалки", как бы хорошо программно охватить актуальный перечень запросов на сайте и поднять посещаемость. Да, с этих "рассуждалок" все и начинается, это нормально. Но мне и Серафиму интересна именно доказательная его полезность.

-= Serafim =-:

Если страница не оптимизирована но получает трафик, то это значит, что запрос ущербный НЧ, который может быть длинный и кривой. Если под него оптимизировать страницу я представляю что получится.

У меня было пару случаев, когда вылезала страница по НПС только потому, что вебмастер заблудного донор сайта просто ошибался в названии домена. Но это, скажем, случайность (хотя для понимании ситуации принять к сведению полезно). А также масса примеров, когда "несговорчивые" клиенты говорили нашим менеджерам, - "А нам ничего не нужно, у нас и так сайт хорошо в Яндексе "виден", хотя никаким продвижением мы не занимались.." менеджер задает вопрос "как так?" - мне..

Я отчетливо вижу, страница выходит благодаря текстовой составляющей, региональности и малой конкуренции, хотя по всем остальных показателям сайт нулевый. Вот пример случайного трафика "на удачу". Хотя слово "случайный" здесь неочень удачное.


НЧ запросов "чуток" больше, чем СЧ и ВЧ.

Я не спорю с этим.. Стас, вы просто сказали, что НЧ будет много.

Будет много или не будет _много_ - опять-таки частный, конкретный случай.


Это что за фантазии? :) Ссылки то должны быть с нормальных ресурсов и не прямыми вхождениями только.

Никаких фантазии. Опыт и подтвержденные результирующие выводы ежедневной практики. Впрочем, не настаиваю на истинности. Углубляясь в эту полярность мнений мы просто выйдем на противостоянние рассуждений когда, кто-то эффективно использует сапу (т.е. я имею ввиду вас) и того, кто от сапы уже год как отказался и в разы повысил результативность своих SEO наработок (это я нескромно про себя). Поэтому предлагаю даже не начинать эту полемику (по крайне мере не в этой теме).

Отдельно выскажусь по поводу "ссылки должны быть с нормальным ресурсов".

Нормальные сайты с сапой - это некое весьма условное представление оптимизаторов о должной технической особенности сайтов и некоторых их SEO показателей.

Если сайт торгует ссылками и выводит их блочных образом (коих в сапе % стремящий к 100) - это сайты, использующие поисковый спам. Я для себя уже убедился, какую эффективную полезность приносят доноры с сапой и доноры - вообще без бирж и прочей SEO шелухи.

-= Serafim =-:
Hkey, не хочу портить Вам тему, но на практике получится ерунда.

На самом деле, согласен, с Serafim вы хотите как-то невнятно автоматизировать процесс продвижения cайта по заблудных НЧ запросам. Уверен, по большей части работу по оптимизации доп. запросов должен вести сам оптимизатор с учетом готовой структуры, семантики запросов и в конце концов юзабилитии, а что там скрипт нагенерирует на радостях случайного трафика - бог его знает.


Если страница получает трафик, то она уже оптимизирована по запросам,

Необязательно. Если страница получает трафик по запросу, это значит, что страница релевантна этому запросу. А как она оптимизирована, в каких поисковиках выходит (а может в каких-то нет, а может это результат вообще левого НПС) - отдельная тема. К тому же насколько эффективно эта страница ловит трафик, на каких позициях позиционируются вопросы - вот это уже вопрос оптимизации и целесообразности дальнейших работ в каждом конкретном случае.


если будут НЧ запросы, то их будет очень много.

Может да.. а может и нет.


Получается под каждый из них оптимизировать страницу? Что это за каша получится :)

На самом деле получится говно сайт под НЧ запросы..


Плюс облако - это не есть хорошая форма перелинковки.

Согласен! Это вообще красная тряпка для санкций Яндекса.


Все это делается гораздо проще - из статы берутся нч запросы и покупаются ссылки в сапе. Они одновременно и себя продвигают и СЧ с ВЧ, если имеют общую основу.

Проще/непроще - это отдельная тема. Ссылки с сапы запросто могут загубить траст и их обилием можно легко просадить ВЧ-ки. Так что сводить к совету - "подкупить ссылочек с нужным анкором на сапе" - я бы не стал.. очень тут много подводных камней.

The WishMaster:
Неправда. Внешние факторы влияют сильнее.

Отнюдь, геотагретинг - первичный постпроцессинг, по геозависимым запросам, очевидно, местные сайты стали стеснять столичных монстров. Разница в объеме ссылочного колоссальная. Так что внешние факторы дааалеко не все теперь решают (что, кстати, и правильно).


Сквозная ссылка влияет на вес (он же пр), но не на ссылочное ранжирование.

Тоже не соглашусь. Во-первых, PR влияет на ранжирование в Гугле, во-вторых, статический вес, который _больше_ передает сквозняк также участвует в ранжировании уже Яндекса.

Другое дело сквозники стали непопулярны ввиду своей дороговизны, поэтому они как-то неочень популярные в массовом обиходе у SEO-шников. Я вот их тоже не беру, потому как невыгодно.

gidronic:
Спасибо за размещение. Площадки приличные, своих денег стоят.

Стараемся держать марку! ;) Спасибо за отзыв.

Продолжаем принимать заказы на написание и размещение.

kbv79:
Разместился под ключ на всех трех сайтах. Статьи нормальные, сайты опрятные. Надеюсь, на быструю индексацию и эффект.

Всегда, пожалуйста, обращайтесь. Отчет о размещении продублировал вам на почту.

До сих пор кол-во проиндексированных страниц скачет, по позициям особых изменений не вижу.

Какой-то затяжной ап получается.. ждем, выводы пока рано делать.

SocPR:
А как считатаете внутренняя перелинковка влияет на рнжирование в яндексе сейчас?

Конечно. Это очень помогает, когда по запросу релевантна не та страница, которая нужна.

Всего: 12568