- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Парадигма ру/укр/бел нета что работают только ссылки. Давай ссылки отбросим сразу, они пригодятся потом а пока не нужны
пф работают на ура, я выше давал пример, + все статейники аналогично
а именно, пересчёт позиций во время апа
как ПС, не зная ничего о сайте (особенно когда он новый) может сразу воткнуть его вообще на какое-либо место, потеснив конкурентов
обычное текстовое ранжирование
Но после BERT, когда гугл отобрал у обычных сайтов те самые long tail, жду твоих предположений...
Интересный момент. В контексте ранжирования. Оценка чего-бы то ни было, в том числе страницы сайта, может быть абсолютная или относительная. Абсолютная это с неким идеалом или, например, первым местом. Ну, относительная, это понятно - сравнение с ближайшим соседом (А/Б тестирование).
Оценка чего-бы то ни было, в том числе страницы сайта, может быть абсолютная или относительная.
Не туда. Оценка релевантности страницы работает в паре запрос - документ.
По результатам оценки происходит ранжирование - т.е. упорядочивание списка релевантных документов поисковой выдачи в порядке убывания текущей релевантности.
При одном запросе - одна релевантность, при другом - другая, поэтому никакой "абсолютной" оценки между сайтами нет.
Это и не нужно в контексте многообразия поиска.
Глядя на рост и номера позиций становится очевидно что Гугл не используется в чистом виде ни тот ни другой метод. Если бы практиковалось только относительное сравнение, то позиции бы росли с шагом в одно натуральное число ... 24, 23, 22 и так далее. Если бы использовалось только абсолютно сравнение, то Гугл поставил бы страницу сразу, скажем, на 3-ю позиции и все, выше ты не заслуживаешь амиго, в данный момент. А получается какой-то микс.
Снова не туда. Факторы ранжирования имеют свои уточняющие коэффициенты, они меняются из-за чего происходит смещение в итоговой релевантности. Грубо говоря, в одной рабочей итерации преимущество имеет текстовая релевантность, при другой - ссылочная (хотя в реальности конечно всё сложнее). Опять-таки, надо не забывать про полноту и разнообразие измеряемой выборки, - опять-таки, конкурентная страницы выпала из поиска - последующий сайт занимается его место. Но! Последующим может быть не тот сайт, которые был в прошлый раз.
Это наводит на мысль что Гугл в ранжировании использует еще и какий-то факторы, с неизвестными ему заранее показателями, например поведенческие метрики. Да, момент общеизвестный, только как Гугл может считать поведенческие метрики на дальних позициях, где трафика или нет вообще, или его ничтожно мало.
Метрики перерассчитываются и обновляются. Это значит в один момент времени рабочей итерации - это одни показатели, в другой - другие. Все они в итоге влияют на итоговую релевантность в паре запрос - документ. В связи с этим документ может то подниматься в выдаче, то опускаться, никакие закономерности с шагами по натуральным числам тут искать не надо, никакую полезную логическую взаимосвязь вы здесь не определите.
Еще интересно как высоко я смогу забраться по этому, самому жирному ключу в ультра-конкурентной категории, ни купив не одной ссылки. Тенденция к росту есть. Сейчас 11 место.
Будет зависеть от конкурентности топа и релевантности вашей страницы.
По жирным ключам в ультра-конкурентной категории шансы близкие к нулевым.
Хотите более внятно и комплексно понимать, как работает механизм ранжирования в поисковых системах читайте книгу "Введение в информационный поиск", авторы Маннинг К.Д., Рагхаван П., Шютце Х. - это своего рода Библия для SEO-шников.
Несмотря на кажущееся простое название, книга весьма серьёзная.
Не найдете в паблике, напишите, скину в личку.
Самый важный вопрос в твоём старт посте следующий, как ПС, не зная ничего о сайте (особенно когда он новый) может сразу воткнуть его вообще на какое-либо место, потеснив конкурентов и, не имея никакой статистики по поведению пользователей, например, передвинуть его с 55 на 43 место.
По расчётным показателям tf/idf, которые рассчитываются по фактическому текстовому содержимому.
По расчётным показателям tf/idf, которые рассчитываются по фактическому текстовому содержимому.
1) Начнём с того что контент это не всегда текст
2) Давай рассмотрим новый сайт. У него нулевой рейтинг, ему просто невозможно конкурировать ни с кем, разве что с другими новыми сайтами
3) Единственный вариант гуглу куда-то впихнуть новый сайт это найти во всей базе какой-то совсем убогий мега-ультра-супер НЧ к которому страница (а главное и сам сайт) будет релевантна
4) Опять же апы и еще раз апы, я ни раз наблюдал как нулевые сайты удачно попадали в перерасчёт апа и, учитывай что фильтров (еще один неучтённый пока нигде индикатор) на них нет, вставали в ТОП
5) Важнейший вопрос на который нужно найти ответ следующий: Какими качествами новый сайт должен обладать в сравнении с 20-летним монстром с кучей траста (а траст это не только ссылки) и ссылок, чтобы по данному конкретному запросу конкурировать с этим монстром.
6) Был когда-то миф, который лично я мифом не считаю про "бонус новичка", где, в моём понимании, ПС давали фору новому сайту учитывая то что он вроде как пока не косится жестоко фильтрами ибо новый, чтобы типа прощупать на что он способен.
7) Кроме бонуса новичка я пока вообще не вижу шансов новым сайтам в современных реалиях, учитывая перенасыщенность всех ниш
8) Не нужно путать новый сайт с новой страницей. Если сайт уже под фильтром, что не делай новый страницы в топ не пойдут
9) Не забываем про эксперимент с 4-5-10 сайтов в одной нише, которые лично я проводил, где может выстрелить 1 из 10 а может и ниодного
10) Ну и наконец великий и рабочий рандом который никто не отменял
10.1) Учитывая то что все алго строятся на моделях, а они рассчитывают веса, пытаться угадать как думает ИИ равно как пытаться самому, своей головой создать детект ИИ контента, если понятно о чём я
При всём вышеперечисленном, закономерность в алгоритмах ранжирования однозначно есть. Доказательством тому могут служить сайты которые одинаково ранжируются в разных ПС. Разве что если не предполагать что все другие ПС просто парсят выдачу гугла )))
====
Ну и красной линией через всё это проходит ТЕМАТИКА....
Ну и наконец великий и рабочий рандом который никто не отменял
есть забавная историй ... как-то вылезла у меня относительно новая товарная категория в топ ... ну, этим мало кого удивишь из бывалых ... но, есть нюанс, категория была вообще голая - без сео-текста, без ссылок, мета написаны просто чтобы были, товары без описаний ... но меня Гугл закинул по ВЧ запросу прямо на первое место на полтора месяца ... обычно гугл голую страницу так высоко не поднимает, и так надолго
Какими качествами новый сайт должен обладать в сравнении с 20-летним монстром
сайт ... Гугл давно мыслит в разрезе страниц ... хотя траст домена тоже важен, особенно если страница полупустая, потому что каскадную передачу веса с морды никто не отменял
первый сайт в своей нише я вывел в топ 5 лет назад ... были там всякие монстры, но я их объехал в стиле лоу-райдера за счет контент-маркетинга, не купив ни одной (!) ссылки и вышел в топ ... хотя с одной категорией пришлось попотеть - застряла во второй половине первой страницы и ни в какую не хотела идти дальше ... я раза 4 переписывал сео-текст на ней ... ну чтобы уже 146% уникальности и супер-экспертность была ... экспериментировал с внутренней перелинковкой, в том числе с ссылками на категорию с блога ... кидал на переиндексацию ... и таки за год добил ее до первой позиции
полтора года назад я начал выводить второй сайт в этой категории в топ ... пишу годные текста + покупаю ссылки ... все идет по маслу .... кроме одной категории .... той самой с которой был гемор 4 года назад .... снова застряла на 7-8 позиции и не хочет двигаться даже от буста ссылками
Начнём с того что контент это не всегда текст
В этом случае надо начинать с позиции, что если нет возможности контекстно оптимизировать рабочую семантику, то и не нужно подряжаться на такие задачи.
Давай рассмотрим новый сайт. У него нулевой рейтинг, ему просто невозможно конкурировать ни с кем, разве что с другими новыми сайтами
Здесь важно уточнять - конкурировать в чём? В перечне высококонкурентных запросов?
Работа всегда начинается со скоринга конкурентных запросов и приоритизации нч и миро нч запросов.
Там где конкуренция слабая вполне можно въехать в топы по нч запросам даже свежим сайтом (при условии качественной on page оптимизации). Это базовая SEO стратегия. Говоря простым языком - от меньшего к большему.
Важнейший вопрос на который нужно найти ответ следующий: Какими качествами новый сайт должен обладать в сравнении с 20-летним монстром с кучей траста (а траст это не только ссылки) и ссылок, чтобы по данному конкретному запросу конкурировать с этим монстром.
Если вопрос стоит именно так, то ответ следующий - теми же характеристиками, что и конкурент.
Поэтому работайте, прорабатывайте, созревайте, накапливайте.
Здесь можно задать ответный вопрос - почему новый сайт должен претендовать на позиции старого сайта на основании того, что он просто хочет? Хотите? Работай - делайте большие и лучше. Ваш конкурент это заслужил, а вы пока - нет.