- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Во-первых, не текста, а внутренних ссылок.
Вы можете сказать в среднем - объём этого блока внутренних ссылок в символах? 1к, 2к?
А есть безлимитная лицензия на неограниченное число доменов? Или скажем привязка к IP сервера. Ещё такой вопрос, а если нужен трафик не на весь сайт, а только на отдельный каталог статей - это можно сделать?
Если страница не оптимизирована но получает трафик, то это значит, что запрос ущербный НЧ, который может быть длинный и кривой. Если под него оптимизировать страницу я представляю что получится.
У меня было пару случаев, когда вылезала страница по НПС только потому, что вебмастер заблудного донор сайта просто ошибался в названии домена. Но это, скажем, случайность (хотя для понимании ситуации принять к сведению полезно). А также масса примеров, когда "несговорчивые" клиенты говорили нашим менеджерам, - "А нам ничего не нужно, у нас и так сайт хорошо в Яндексе "виден", хотя никаким продвижением мы не занимались.." менеджер задает вопрос "как так?" - мне..
Я отчетливо вижу, страница выходит благодаря текстовой составляющей, региональности и малой конкуренции, хотя по всем остальных показателям сайт нулевый. Вот пример случайного трафика "на удачу". Хотя слово "случайный" здесь неочень удачное.
НЧ запросов "чуток" больше, чем СЧ и ВЧ.
Я не спорю с этим.. Стас, вы просто сказали, что НЧ будет много.
Будет много или не будет _много_ - опять-таки частный, конкретный случай.
Это что за фантазии? :) Ссылки то должны быть с нормальных ресурсов и не прямыми вхождениями только.
Никаких фантазии. Опыт и подтвержденные результирующие выводы ежедневной практики. Впрочем, не настаиваю на истинности. Углубляясь в эту полярность мнений мы просто выйдем на противостоянние рассуждений когда, кто-то эффективно использует сапу (т.е. я имею ввиду вас) и того, кто от сапы уже год как отказался и в разы повысил результативность своих SEO наработок (это я нескромно про себя). Поэтому предлагаю даже не начинать эту полемику (по крайне мере не в этой теме).
Отдельно выскажусь по поводу "ссылки должны быть с нормальным ресурсов".
Нормальные сайты с сапой - это некое весьма условное представление оптимизаторов о должной технической особенности сайтов и некоторых их SEO показателей.
Если сайт торгует ссылками и выводит их блочных образом (коих в сапе % стремящий к 100) - это сайты, использующие поисковый спам. Я для себя уже убедился, какую эффективную полезность приносят доноры с сапой и доноры - вообще без бирж и прочей SEO шелухи.
Как вы себе представляете работу оптимизатора начиная с 50 страниц? По вашим репликам понятно, что вы не вели подобные проекты, я прав? Начиная от 50 страниц, внутренняя оптимизация проходит через изменение php кода, поскольку вручную вести ее нереально. Т.е. оптимизация и так частично автоматическая.
Случайный трафик, скрипт может нагенерировать, но его не больше нескольких прооцентов.
Либо я тупой и не понимаю очевидности этого утверждения, либо вы с Серафимом состоите в тайной секте противников облака тегов. Это смешно просто. Вы вдумайтесь что вы пишите Облако тегов для Яндекса красная тряпка. А ничего страшного, что это визитная карточка Веб 2.0? Ничего что на 30% сайтов она есть?!... Я все понял Платон нажрался ЛСД, начал ловить глюки и приказал банить сайты с облаком тегов.
Hkey, чтобы укоротить все эти выяснения, поступим проще. У Вас есть пример рабочий сайта, где трафик вырос после установки скрипта? Посмотреть статистику и посмотреть на сам сайт, его внешний вид.
Как вы себе представляете работу оптимизатора начиная с 50 страниц? По вашим репликам понятно, что вы не вели подобные проекты, я прав? Начиная от 50 страниц, внутренняя оптимизация проходит через изменение php кода, поскольку вручную вести ее нереально. Т.е. оптимизация и так частично автоматическая.
50 страниц чего именно? 50 целевых релевантных страниц по которым идет трафик?
Опять такие странная фраза "внутренняя оптимизация проходит через изменение php кода" - и что?
Да, что-то приходится менять, но я не вижу в этом никаких архисложностей.
Возможно, я вас не совсем правильно понял.
Случайный трафик, скрипт может нагенерировать, но его не больше нескольких прооцентов.
А сколько текстового мусора он нагенерит в связи с этими случайными формулировками запросов и сколько вручную придется править?
Либо я тупой и не понимаю очевидности этого утверждения, либо вы с Серафимом состоите в тайной секте противников облака тегов.
Отнюдь. У нас Серафимом нет никакой надуманной родственности взглядов, как можно заметить по переписке у нас достаточно расхождений в понимании и методологии своих SEO подходов.
Просто элементарно на облаке тегов я собаку съел, когда сайт уходил в бан Яндекса за "использование SEO манипуляций" и после сноса облака тегов - сайт возвращали в индекс.
Не знаю, какой опыт у Серафима. Но случаев, когда Яндекс выдавал по банану сайтам с облаками тегов на форуме достаточно.
Это смешно просто. Вы вдумайтесь что вы пишите Облако тегов для Яндекса красная тряпка. А ничего страшного, что это визитная карточка Веб 2.0? Ничего что на 30% сайтов она есть?!... Я все понял Платон нажрался ЛСД, начал ловить глюки и приказал банить сайты с облаком тегов.
Понимаете, формулировки ссылок, которые будут в облаке тегов в виду их SEO ориентированности будут мало походить на дружественную для пользователей навигацию. И поисковик абсолютно будет прав, когда вот за такие вот награмождений забанит нахрен сайт, не смотря ни на какую претензиозность в ВЕБ 2.0. Я абсолютно уверен, что релеваность страницы должна складываться и емкой, содержательно стороны конкретного веб документа. А все это подтосовывание статического веса, благодаря муссированому генерированию наработанных SEO перелинковок - это что-то из области дорвейстроительства.
anthony_ добавил 24.06.2010 в 01:32
Hkey, чтобы укоротить все эти выяснения, поступим проще. У Вас есть пример рабочий сайта, где трафик вырос после установки скрипта? Посмотреть статистику и посмотреть на сам сайт, его внешний вид.
Таки-да, разумный довод. Если уважаемый автор скрипта представит проект, где наглядно продемонстировано что представлял собой исходный сайт (с выкладкой по посещаемости) и какие результаты были достигнуты благодаря использыванию скрипта, вот тогда да.. для меня это достаточный аргумент для того, чтобы углубиться в понимании серьезной эффективности этого инструмента.
Пока это все теоретические "рассуждалки", как бы хорошо программно охватить актуальный перечень запросов на сайте и поднять посещаемость. Да, с этих "рассуждалок" все и начинается, это нормально. Но мне и Серафиму интересна именно доказательная его полезность.
Вы можете сказать в среднем - объём этого блока внутренних ссылок в символах? 1к, 2к?
Обычная ссылка с прописанным титл занимает около 90 символов (с форматированием естественно). В облаке к ссылке добалено еще и style="font-size:XXX%" (16-17) символов, в итоге ссылка занимает 100 символов, а 30 ссылок 3000.
А есть безлимитная лицензия на неограниченное число доменов? Или скажем привязка к IP сервера.
Да, 65 WMZ, но продается либо людям с высокой репой, либо тем с кем я имел дело. Для вас и еще одного человека с репой от 40.000 с условием отзыва 45 WMZ.
Ещё такой вопрос, а если нужен трафик не на весь сайт, а только на отдельный каталог статей - это можно сделать?
Пока нет, но в скором времени организую.
Обычная ссылка с прописанным титл занимает около 90 символов (с форматированием естественно). В облаке к ссылке добалено еще и style="font-size:XXX%" (16-17) символов, в итоге ссылка занимает 100 символов, а 30 ссылок 3000.
Это очень много, если блок сквозной. Текст контента страницы должен превышать этот блок по объёму. Сайты кстати банили за облако точно - выходили из под удара только после закрытия страницы где они все перечислены, в ноиндекс. Много случаев читал и примеры в личке видел. Поэтому кстати никогда не рекомендовал облако использовать без закрытия от индексации.
Пока нет, но в скором времени организую.
Тогда и посмотрим. Пример сайта тоже не отказался бы посмотреть.
50 страниц чего именно? 50 целевых релевантных страниц по которым идет трафик?
Да 50 страниц на которые идет трафик (лендинг-пейджов).
Опять такие странная фраза "внутренняя оптимизация проходит через изменение php кода"
Т.е. вы согласны, что внутр. оптимизация, когда страниц много происходит, через автоматические методы. Причем эти методы будут детерминантными (обобщенные правила), которые во многих конкретных случаях будут не оптимальными и менее гибкими. HTracer же использует информацию о переходах, что позволяет ему гибко подстраиваться под каждую страницу. Допустим, вы хороший программист и потратили 2-3 дня на составление/редактирование кода с целью оптимизации. (в реальности оптимизатор в среднем программист не очень хороший (это же не основная его профессия) и тратит намного меньше времени на исправления кода клиентского сайта). Но даже в нашем очень хорошем случае, оптимизатор-программист не сможет учесть всех тонкостей. Например, он создал правило добавлять в метакейвордс "отель X, гостиница X" (X - название), для каждого поста в рубрике "гостиницы", однако вебмастер добавил пару санаториев и баз отдыха и это правило оказалось не универсальным.
Да, что-то приходится менять, но я не вижу в этом никаких архисложностей.
Во-первых, вопрос времени.
Во-вторых, HTracer оптимизирует лучше, чем ваш скрипт, если, конечно вы не потратите на него пару недель.
В-третьих, оптимизатор, может и не знать PHP.
В-четвертых, у клиентов, обычно, разные движки, и большую часть времени вам придется изучать движок, его архитектуру.
А сколько текстового мусора он нагенерит в связи с этими случайными формулировками запросов и сколько вручную придется править?
Ничего править не придется. HTracer не генерит текст, это не дорген. Он прописывает альты, титлы и метакейвордс. Причем, чем больше переходов по ключу тем более вероятно, что он пропишется в титлах и альтах. В метакевордс и в облаках и блоках внутренних не прописываются редкие ключи. А ошибочных наборов намного меньше, чем правильных. Поисковики исправляют грамматические ошибки. Поэтому вероятность того, что пользователь увидеть неправильное написание крайне мало. Скорей он увидит грамматические ошибки на сайте в самих текстах, к которым HTracer не имеет отношения.
Но случаев, когда Яндекс выдавал по банану сайтам с облаками тегов на форуме достаточно.
Если вы почему-то боитесь использовать облака, то облако можно превратить в простой блок ссылок произвольного вида. Если выдавать вместо облака тегов, ссылки на результаты поиска, то действительно можно получить банан. Результаты поиска должны быть скрыты от индексации по правилам Яши. Банят не за облако, а за любой блок ссылок на страницы поиска по сайту (к поисковым страницам нужно причислить и комбинации нескольких тегов). Это не имеет никакого отношения к теме. Семантическое облако намного меньше похоже, чем облако тегов, но это спамное облако, за которое банят, поскольку в половине случаев перекидывает пользователя на страницу конечной записи, а не на страницу-список.
Понимаете, формулировки ссылок, которые будут в облаке тегов в виду их SEO ориентированности будут мало походить на дружественную для пользователей навигацию.
Нет. Смотрите скрин в первом посте. Где вы видите нагромождения!? Если люди ищут что-то и в большом количестве и переходят на ваш сайт. Это говорит о двух вещах. Во-первых людям это интересно. Во-вторых на сайте это есть. Чтобы на страницу попал человек с поиска она должна быть выбрана поисковиком, и затем пользователем по снипету, что говорит о том, что страница релеватна не только в алгоритме поисковика, но и в человеческом смысле. Я проверял, по семантическому облаку чаще кликают, чем по облаку ссылок. Причем почти в 1.5 раза.
Таки-да, разумный довод. Если уважаемый автор скрипта представит проект, где наглядно продемонстировано что представлял собой исходный сайт (с выкладкой по посещаемости)
Серафим,anthony,Str256 В личку пишите мыла на GMAIL, подключу вас к своему аналитиксу.
Hkey добавил 24.06.2010 в 03:06
Взял бы за отзыв :)
onigbinde, домен и мыло в личку
Hkey добавил 24.06.2010 в 03:14
Это очень много, если блок сквозной.
3К это немного. Сейчас верстка страницы в среднем занимает 50К. У большинства больших сайтов в навигации намного больше чем 30 ссылок. Даже у очень простенькой стартовой страницы Гугла 33 ссылки (http://www.google.com.ua/), а у Яши (http://www.yandex.ua/) 120.
Т.е. вы согласны, что внутр. оптимизация, когда страниц много происходит, через автоматические методы. Причем эти методы будут детерминантными (обобщенные правила), которые во многих конкретных случаях будут не оптимальными и менее гибкими. HTracer же использует информацию о переходах, что позволяет ему гибко подстраиваться под каждую страницу. Допустим, вы хороший программист и потратили 2-3 дня на составление/редактирование кода с целью оптимизации. (в реальности оптимизатор в среднем программист не очень хороший (это же не основная его профессия) и тратит намного меньше времени на исправления кода клиентского сайта). Но даже в нашем очень хорошем случае, оптимизатор-программист не сможет учесть всех тонкостей. Например, он создал правило добавлять в метакейвордс "отель X, гостиница X" (X - название), для каждого поста в рубрике "гостиницы", однако вебмастер добавил пару санаториев и баз отдыха и это правило оказалось не универсальным.
Метакейворды для ныненшнего SEO - это вообще рудименты прошлого. Я их не использую и уверен, что большинство оптимизаторов тоже. Что касается исправления кода, то оптимизатор должен создавать и организовывать релевантный контент. HTracer все равно в должной мере этого делать не будет.
Во-первых, вопрос времени.
Любое серьезное дело требует времени.
Во-вторых, HTracer оптимизирует лучше, чем ваш скрипт, если, конечно вы не потратите на него пару недель.
А причем тут мои скрипты? :) Мы, вроде, ничего и не сравнивали..
В-третьих, оптимизатор, может и не знать PHP.
Плох тот оптимизатор, который не имеет представления о PHP.
В-четвертых, у клиентов, обычно, разные движки, и большую часть времени вам придется изучать движок, его архитектуру.
Правильно заметили. Чаще всего это и приходится делать. Но, извините, это неотъемлимая часть работы оптимизатора. Без изучения (хотя бы на уровне структурной организации) клиентских движков оптимизатор далеко не уедет.
Ничего править не придется. HTracer не генерит текст, это не дорген. Он прописывает альты, титлы и метакейвордс.
Работа со служебными полями TITLE, DESCRIPTION, KEYWORDS (последний потерял свое функциональное значение), это лишь незначительная часть общей работы по оптимизации.
Кроме того, нужно понимать вот что.. формирование бесконечного длинного хвоста из ключевых слов TITLE - это моветон. Как пользователь, я стараюсь избегать таких страниц при просмотрах, потому что есть большой процент вероятности нарваться на разного рода доргены с бредотекстом.
А после DESCRIPTION - это вообще опорный для многих пользователей текст и его нужно обдуманно формулировать, чтобы он был презентабельным и читаемым. Доверить эту работу HTracer - сомнительно.
Причем, чем больше переходов по ключу тем более вероятно, что он пропишется в титлах и альтах. В метакевордс и в облаках и блоках внутренних не прописываются редкие ключи. А ошибочных наборов намного меньше, чем правильных. Поисковики исправляют грамматические ошибки. Поэтому вероятность того, что пользователь увидеть неправильное написание крайне мало. Скорей он увидит грамматические ошибки на сайте в самих текстах, к которым HTracer не имеет отношения.
Есть довольно заметная часть пустых, тематически некоррелирующих запросов. Нагонять в TITLE эти форумлировки далеко невсегда нужно.
Если вы почему-то боитесь использовать облака, то облако можно превратить в простой блок ссылок произвольного вида. Если выдавать вместо облака тегов, ссылки на результаты поиска, то действительно можно получить банан. Результаты поиска должны быть скрыты от индексации по правилам Яши. Банят не за облако, а за любой блок ссылок на страницы поиска по сайту (к поисковым страницам нужно причислить и комбинации нескольких тегов). Это не имеет никакого отношения к теме. Семантическое облако намного меньше похоже, чем облако тегов, но это спамное облако, за которое банят, поскольку в половине случаев перекидывает пользователя на страницу конечной записи, а не на страницу-список.
Облако, даже если оно имеет место быть, должно быть элементом дружественной для пользователя навигации и должно предлагать осмысленные переходы на целевые страницы сайта. Осмысленные переходы - это в любом случае ручная работа проектировщика сайта и оптимизатора.
Серафим,anthony,Str256 В личку пишите мыла на GMAIL, подключу вас к своему аналитиксу.
И разбирайтесь где у меня как было и что из этого получилось - как хотите? :)
Метакейворды для ныненшнего SEO - это вообще рудименты прошлого. Я их не использую
А зря.
Метакейс учитываются всеми поисковиками, хотя и не так сильно как лет десять назад. В официальных материалах Яши есть примерно такое утверждение: "Метакеи учитываются, если они есть на странице в обычном тексте".Вопрос в том что расстановка метакеев вручную для многих страниц - процесс проблематичный. И они расставляются на нескольких основных страницах.
Пожалуйста, постарайтесь не использовать доводы в стиле "я считаю", "я использую". Единственное, о чем эти утверждения могут сказать так о вашей квалификации:
На морде вы метакеи ставите? Если не ставите, то ваша квалификация низкая и/или время, которое вы тратите на внутреннюю оптимизацию мало, поэтому к дальнейшим вашим утверждениям не имеет смысла прислушиваться. Если же ставите, то вы сами же себе противоречите и опять-таки к дальнейшим вашим утверждениям не имеет смысла прислушиваться. ЧТД.
Кроме того, нужно понимать вот что.. формирование бесконечного длинного хвоста из ключевых слов TITLE - это моветон.
Скрипт не формирует титл страницы. Скрипт формирует титлы ссылок. Титлы ссылки, это хинт, который появляются при наведении на нее мышкой. Пожалуйста, прочитайте описание в первом посте, чтобы мы говорили об одних вещах. Давеча вы говорили: "вы хотите как-то невнятно автоматизировать процесс продвижения cайта по заблудных НЧ запросам", а теперь выясняется, что даже первые пять пунктов описания вы не прочитали. Как это понимать?
Облако, даже если оно имеет место быть, должно быть элементом дружественной для пользователя навигации и должно предлагать осмысленные переходы на целевые страницы сайта. Осмысленные переходы - это в любом случае ручная работа проектировщика сайта и оптимизатора.
ов
Посмотрите же наконец-то на скрин облака в первом посте, а то, что вы говорите совершенно не соответствует действительности. Все переходы осмыслены. Поскольку семантическое облако является плодом труда самых сложных, на данное время, аналитических систем (поисковиков) и сотен или тысяч пользователей, а не одного-двух человек. Вероятность что один человек ошибётся на порядок больше, чем вероятность того, что сотни человек ошибутся одновременно. Этот принцип активно используется в Вебе, например, в рейтингах (Например, IMDB, Кинопоиск или в других сайтах где есть рейтинг) или в Википедии.
Почему семантическое облако лучше?
Во-первых, в облаке тегов любой переход идет на страницу-список анонсов постов (страницу метки). Пользователя интересует не сам список, а конечный пост, который нужно еще найти в этом списке, и сделать лишний переход. В семантическом облаке, где-то половина ссылок идёт на конечные посты (если они интересны пользователям).
Во-вторых, в облаке тегов размер ссылки зависит не от интереса к ней пользователя, а от числа постов в метке, которое очень слабо коррелирует с интересностью данной метки для пользователей. В семантическом облаке размер ссылки зависит от интереса пользователей к данной конкретной теме. Например, ресторанов в любом городе в разы больше, чем ночных клубов, но это далеко не значит в рестораны ходит больше людей, чем в клубы, просто клуб вмещает в среднем больше народа, чем ресторан.
В-третьих, для облако меток это функция далеко не каждого движка, а семантическое облако можно поставить на любой движок.
В-четвертых, наличие облака меток на сайте, накладывает дополнительные ограничения на использование меток для SEO целей. Например, у вас есть метка "гостиницы одессы", но вам нужно создать страницы-метки релевантные по запросам "гостиницы одессы недорого","гостиницы одессы у моря","гостиницы одессы в центре","гостиницы одессы в Аркадии"... Если вы создадите такие метки, то облако меток превратится в кашу. Конечно, можно исключить их из облака, но это дополнительный гембель (облако вообще можно наверстать вручную).
Вопрос в том что расстановка мета кеев вручную для многих страниц - процесс проблематичный. И они раставляются на нескольких основных страницах.
Вы ещё в Гугл Аналитиксе не шарите? Думаю там не сложно будет разобратся (когда график вверх идет это хорошо, когда вниз - плохо). Отправьте мыло на GMAIL мне в личку. Дам доступ и свои комментарии.
anthony вы так и не ответили на мой вопрос: "Судя по вашим фразам, вы не вели проекты с более чем 50 ключевыми страницами, прав ли я?". Молчание знак согласия?