- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Cage, Вы можете хотя бы раскрыть нам, способ определения "конкурентности" - на глаз или программа считает?
midian777, давай на "ты", OK? ;). Конечно же считает программа, иначе как бы я определял конкурентность с точностью до сотых :)
Вот как раз и хочется оценить, насколько опыт соотносится с четким алгоритмом.
Если обсуждать формулу - то это будет совсем другое обсуждение (и для совсем другого раздела форума). Когда люди обсуждают выдачу Яндекса, никто ведь не требует от Яндекса сказать формулу, чтобы мы ее дружно подкрутили. Вот и здесь мы обсуждаем результаты ;)
Конкурентность действительно оценивается для десятки (т.е. не для сайта на первом месте, а для выдачи).
И я не очень удачно выразился, что
Вернее для запросов в примере это верно, но я не ожидал, что я получу для теста запросы, в которых конкуренцию могут составить только 1-3 первых сайта.
Другими словами, если первый сайт в выдаче хорошо оптимизирован и на него ссылается 50000 сайтов, а на все остальные сайты не ссылается никто, едва ли стоит ожидать высокую конкуренцию по этому запросу, несмотря на то, что попасть на первое место будет довольно трудно...
www.myfitness.ru - 329 внешних (штук 30 из них достаточно приличных)
А этого сайта не было в десятке, когда я проверял... :)
www.fitness.ru - 50
Не впечатляет? А меня так очень.
Это 2.70? Да ни в жисть.
Да, действительно. Пересчитал, получилось 3.23 :)
Может разница в оценках в том, что я смотрю на десятку, а ты на первое место?
Только сейчас понял, что десятка результатов неправильно закэшировалась... Новое значение - 8.85
ХыХы
Предпологаемый алгоритм программы:
Есть программа которая используя Толковый словарь Даля генерит сайт на народе по заданному слову, оптимизирует, расставляет ссылки через неделю проверяет результат- соответственно по нему, поделив на количество ссылок (умноженное на их ПР и ИЦ сайтов*0.02,) выдает коэфициэнт конкрентности.
Нее, это долго и неудобно так считать :)
или Cage -господь бог и соответственно тоже все знает(аналогично вариант -антихрист)
Это тоже мимо :)
Во-первых, а зачем это нужно? Чтобы свою работу оценить? Так ее проще оценить.
Во-вторых, если за неделю "конкурентность" запроса может поменяться в 3 раза, на фиг такую методику, имхо.
Ладно, не будем об алгоритмах, будем о принципах измерений.
- Прибор?
- 15
- Что 15?
- А что "прибор"?
Если вы внимательно изучите хотя бы манометр, то увидите, что он имеет цену деления. Цену ваших делений узнать невозможно, единицы измерений не введены. Нужно либо указать максимум, как это сделал Яндекс при выводе ТИЦ, либо действительно перейти на относительные величины, как это сделал Google при выводе PR.
Что до алгоритма, то складывать индексы цитирования и делить их на 10 может каждый, не надо туману напускать. Это естественно гипотеза, проверять ее мне лень, не обессудьте.
Разговор может вестись только на тему, корректен ли такой подход. Но в силу указанных недостатков он бесперспективен.
Мало. 329, 83,50 внешних - это не 8,85. :) Смотрю я на первую 20-ку.
Да не, тут посложнее должно быть, тИЦы тут ни причем. Я в принципе представляю как сделать подобную же штуку, только мне программера некогда на это загружать. Учесть первые, скажем первые 100 результатов выдачи, для параметров веса подобрать, чем не приблизительная оценка конкурентности на самом деле. Если бы еще был известен вИЦ - тогда точно можно было бы сделать без учета только 1-го параметра. А так без учета 2-ух. Но если остальные все можно вытащить автоматом - это ж хорошо, время может сэкономить.
Штука эта в принципе была бы полезна если бы точно определяла конкурентность и было всем понятна и общедоступна. Сделай степень конкурентности в %. Например самый конкурентный запрос это 100%, а самый легкодоступный - 0% и тогда пиши, что запрос "дамские тапочти" это 2.876% СЛОЖНОСТИ, а "казино" это 78% и всетаки методика определения должна быть известна всем.
Дык. Вот и я мотивов Cage'а не понимаю. Ну хочешь ты сделать так, чтобы этот алгоритм действительно был полезен, а его реализация была с толком (может даже деньги смогла принести создателю) - ну так раз обратился за консультацией и сам не можешь определить точно что да как - выложи в инет, сделай ручку релевантности параметров, скажи что каждый параметр значит, народ покрутит, настроит под себя, средние значения приблизтельно определят нужные коэффициенты веса для параметров. А так то потрепемся просто и все, время потеряет и сам и остальные. И толку?
Во-первых, а зачем это нужно? Чтобы свою работу оценить? Так ее проще оценить.
Лично мне просто интересно получить цифры, соответствующие реальной конкуренции. Как это использовать на практике - это другой вопрос. Можно оценить и свою, и чужую работу. Можно оценить опыт оптимизатора, глядя на конкурентность запросов, по которым он выводил сайты на первые места (например, таким образом Текарт себя неплохо зарекомендовал). Можно вспомнить Маузера, который мог бы провести объективный конкурс оптимизаторов в рунете. Можно вспомнить Гринвуда (и компанию), которые очень хотели придумать методику расчета стоимости оптимизаторских работ, и которым (по большому счету) не хватало только возможности определить конкурентность запросов.
А так было бы удобно для сайтов оптимизаторов. Заходит клиент на сайт, вводит нужный ему запрос и позицию, которую он хочет получить, а ему в ответ стоимость оптимизаторских работ...
Не совсем так, euhenio. Если бы ты читал внимательно, то понял бы, что по фитнесу я сначала собрал результаты выдачи десятки, в которой нет _абсолютного_ лидера по всем характеристикам ссылочного ранжирования www.myfitness.ru. Но потом я собрал результаты по двадцатке, и все встало на свои места ;)
Если вы внимательно изучите хотя бы манометр, то увидите, что он имеет цену деления. Цену ваших делений узнать невозможно, единицы измерений не введены.
Я сразу сделал оговорку, что к полученым числам нужно относиться, как к относительным величинам. А какова цена деления PR, или тИЦ, или вИЦ? Так ли она важна и нужна? Подумай, spark.
И какой же максимум для тИЦ? Что-то не слышал, что такой существует...
Это едва ли представляется возможным, т.к. Гугл обсчитывает все известные ему страницы, а я не обсчитываю все известные мне запросы. Другое дело, что можно попробовать найти наиболее конкурентный запрос из top1000 (по популярности) запросов и обозначить конкурентность по нему в 100%, но кому это надо... :)
Spark, если тебе не интересна эта тема - тебя никто не заставляет участвовать в дискуссии. Если ты считаешь, что сделаешь лучше - делай. Почему-то "каждый" не сделал то, что сделал я. А про туман расскажи Яндексу на форуме того же Яндекса...
Эта гипотеза естественно не верна. Кстати, по запросу "яндекс" конкуренция всего 81.26. А какой тИЦ у Яндекса мы знаем :)
Spark, может быть ты еще объяснишь почему?