- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Для начала, я хотел бы поблагодарить Миху Кузьмина за наводку с "черным ящиком".
Подобный моему вопрос рассматривался здесь:
Есть ли толковые работы по поисковым системам?
Нейросети
В топ по конкурентному запросу без покупных ссылок. Реально?
Особенно интересные темы:
Вычисление формулы ранжирования
Взгляд по ту сторону
У вас на руках есть граф ссылок между доменами ???
Графа ссылок у меня нет. А что, его так трудно получить? Каталог Яндекса общедоступен. Узнать тИЦ для нужного сайта не составляет труда. Узнать, ссылается ли сайт A на сайт B можно запросом к поисковой системе.
В принципе, отношение общественности к подобным темам мне уже понятно :)
В теме "Вычисление формулы ранжирования" все дружно решили, что такая формула не может быть получена. Почему? Неужели ни у кого нет ощущения, что информации для восстановления формулы расчета релевантности _более_ чем достаточно?
То, что мы "входных параметров не знаем" (факторов) - это не совсем так. Влияющие факторы не только публикуются на сайтах поисковых систем, но и даже в бОльшей степени известны оптимизаторам. Так в чем же настоящая проблема?
А зачем формула, если ответ известен=выдача яндекса?
Меня также интересует более общий вопрос вывода формулы расчета релевантности, зависящей от характеристик сайта. Мне, например, не понятно (но интересно ) зачем оптимизаторы проводят различные эксперименты и опыты, если у всех на виду _огромное_ количество информации: и значения характеристик десятков тысяч сайтов можно получить, и выдачу по любому запросу.
Я смотрю, что очень многих интересуют вопросы влияния факторов, восстановления формул (зависимостей) и т.д. Так в чем же проблема определения этих зависимостей? Очень хотелось бы обсудить эту тему...
Нет смысла ставить эксперементы с глобальными задачами, поскольку ранжирование определяется слишком обширным набором факторов. Практическая оптимизация определяется подходом - "копай поглубже, кидай подальше, пока летит отдыхай". А Вы предлагаете логарифмы с линейкой, ползая на коленках, вычислять. :)
Смыслы появляются при анализе особенностей действия факторов с учетом ограниченного набора условий для решения практических задач, типа внутридоменного ссылочного ранжирования по низкочастотникам.
Вы не поняли. Граф ссылок между доменами имеет такое же отношение к каталогу яндекса, как балерина к пиву :)
А зачем формула, если ответ известен=выдача яндекса?
Раз это настолько часто обсуждается, значит зачем-то она многим нужна. В том числе всем тем, кто ждет открытия 4seo.ru (в теме "Взгляд по ту сторону").
По моему мнению, такая формула нужна затем, чтобы можно было заранее оценить позицию сайта, когда характеристики этого сайта изменятся.
Заодно, можно было бы оценить релевантность сайта в цифрах (относительных, но уже в шкале не качественных, а количественных признаков), и заранее прикинуть, на сколько ты оторвался от ближайших конкурентов. Проследить момент, когда тебя вот-вот догонят и перегонят.
Wolf когда-то давно (если мне не изменяет память, несколько лет назад) говорил, что если была бы формула, то он бы вычислил экстремум и всех обогнал. Чем не способ применения :)
Я думаю, что Вы без труда сможете придумать еще несколько примеров ее удачного использования, если бы она была известна...
Если взять науку, например. Ну, химию. Вроде как в ней все известно - законы, закономерности, формулы, уравнения и т. п. Но все равно ставят много сложных экспериментов, так как практически при помощи формул можно очень немногое рассчитать, есть слишком много факторов, в том числе и эмпирических, качественных, так сказать.
Так и с поисковиками. Как учтешь, например, действия модераторов? Искусственное понижение веса, непот и т. п.?
Нет смысла ставить эксперементы с глобальными задачами, поскольку ранжирование определяется слишком обширным набором факторов.
Да не таким уж и обширным, имхо. И вообще, Вы должны быть на моей стороне :)
Или Вы уже нашли ответ на свой вопрос из первого сообщения этой темы?
Практическая оптимизация определяется подходом - "копай поглубже, кидай подальше, пока летит отдыхай".
В общем, я с этим согласен. Но все-таки в темах, на которые я давал ссылки выше, прозвучали некоторые дельные идеи по вопросу использования формулы релевантности.
Вы не поняли. Граф ссылок между доменами имеет такое же отношение к каталогу яндекса, как балерина к пиву :)
Нее, по-моему, граф имеет несколько большее отношение к каталогу Яндекса :)
Вообще, насчет формулы тИЦ, это не только моя идея. Вон местный Professor писал (в этой теме):
...
достачно выкачать базу ссылок примерно по 1000 сайтов.
Вероятно, это примерно:
1000 (сайтов) * 500 (в среднем по палате) / 50 (результатов на странице) = 10 000 запросов к Яндексу
По большому счету, достаточно знать, сколько сайтов и из каких рубрик каталога ссылаются на сайт. Если собрать такую информацию по многим сайтам, то можно восстанавливать зависимость. Весь граф ссылок просто не нужен...
Cage, это ничего не даст. Ибо внешние ссылки с сайтов не зарегистрированных в каталоге много дают.
Если взять науку, например. Ну, химию. Вроде как в ней все известно - законы, закономерности, формулы, уравнения и т. п.
Вот видите, в химии это все есть, а в SEO нет. Непорядок :)
Не знаю как в химии, но, надеюсь, Вы не будете отрицать, что многие формулы в науке (в разных науках) можно не подвергать сомнению и обойтись без "сложных экспериментов"?
Вы, конечно, можете подбрасывать монетку 4040 раз (как Бюффон), чтобы узнать сколько примерно раз выпадет орел, а сколько решка. Или 12000 раз (как Пирсон), или 24000 раз (как опять же Пирсон, вот человеку нечем было заняться :)). А можете воспользоваться формулой. Она давно выведена и доказана.
Этим я хотел сказать, что необходимость проведения экспериментов в некоторых случаях не отрицает возможность и целесообразность использования ранее выведенных формул.
Так и с поисковиками. Как учтешь, например, действия модераторов? Искусственное понижение веса, непот и т. п.?
Их можно просто не учитывать. Это не значит, что они не оказывают влияние. Это означает, что бОльшая часть сайтов не испытывает на себе действия модераторов. Восстановите зависимость для таких сайтов и сможете определять позицию своего сайта среди _них_. А те, кого пессимизировали ... какое нам до них дело :)