- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Скажу сразу, то что происходит сейчас далеко от ниже описанной темы, но позвольте поделиться косвенными, пусть в меру фантастичными предположениями относительно будущего поиска.
Когда-то я завел тему (читать не обязательно, цитата ниже), где поделился размышлениями по поводу возможных грядущих перемен в поисковой системе, собственно привожу оттуда цитату:
И вот после вступления в силу двумя днями ранее нового алгоритма Яндекса, деликатно предупрежденного г-н. Садовским, а теперь и после общения с клиентом, где на одном ip хорошие позиции, на другом увы не радужные... задумался:
А не может ли иметь место в будущем все же выдача рандомом по дата-центрам, что заметно осложнит работу оптимизатора, поскольку даже скромных приближенных гарантий дать будет не просто. Объяснение клиенту, что видите ли здесь показывается одно, а там другое и поверьте лучше чем то, что видите сейчас, не внушает уверенности в правильности действий оптимизатора.
Ведь по сути, пользователь все-равно найдет ту информацию, которую ищет потому как что сайт на 1-м месте, что сайт на 10-м и на 25-м месте по в/ч коммерческим запросам будет релевантным глазами пользователя. А почему бы ПС не тасовать колоды выдачи, раскладывая отдельными стопками с разными картами, но по сути с общими знаменателями.
Выход, конечно и здесь найдется, допустим, можно искать средний коэффициент выдачи между различной выдачей дата-центров, имеющих собственный алгоритм обработки запроса. Но сами понимаете, запутанные пути, в то время как контекстная реклама более конкретна своим позициям, вопрос лишь в ценовой ставке.
Вообщем, все это естественное ИМХО, и вопрос исключительно будущего, назревший сегодняшней смутой, тем более что г-н Садовский официально предупредил
Спасибо.
ну, по идее работники Яндекса должны прежде всего заботиться о более релевантной выдаче, а не о борьбе с сеошниками... то что вы предлагаете конечно достататочно интересно, но в любом случае... один сайт релевантнее другого, и как быть если в тот момент когда определенный пользователь наберет запрос, наиболее релевантный сайт окажется, к примеру, на 25 месте ?
где на одном ip хорошие позиции, на другом увы не радужные
На одном айпи один фронт-сервер, на другом - другой, вот и позиции радужные оттуда же.
Садовский же вроде по-русски сказал, что пару дней выдача у разных серверов будет отличаться...
ну, по идее работники Яндекса должны прежде всего заботиться о более релевантной выдаче, а не о борьбе с сеошниками... то что вы предлагаете конечно достататочно интересно, но в любом случае... один сайт релевантнее другого, и как быть если в тот момент когда определенный пользователь наберет запрос, наиболее релевантный сайт окажется, к примеру, на 25 месте ?
Я имею ввиду, грубым языком, о расширении границ релевантности под отвечающий запрос.
Пример:
Пусть у каждого сайта есть свой вымышленный коэффициент релевантности X, то:
1. сайт A (х= 10)
2. сайт B (x = 7.8)
3. сайт C (x = 6,9)
4. сайт D (х = 5,4)
5. сайт E (х = 4,7)
6. сайт F (х = 4,1)
7. сайт G (х = 3,5)
Пусть введенная рандомная погрешность коэффициента X релевантных запросу сайтов составляет от 5 и более, тогда получаем, к примеру по одному из дата-центров:
1. сайт C (x = 6,9)
2. сайт B (x = 7.8)
3. сайт D (х = 5,4)
4. сайт A (х= 10)
5. сайт E (х = 4,7)
6. сайт F (х = 4,1)
7. сайт G (х = 3,5)
и т.п.
Пользователь равнодушным не останется, но такое преминительно только к в/ч словам с максимальным кол-вом плотно отвечающих запросу пользователя сайтов
На одном айпи один фронт-сервер, на другом - другой, вот и позиции радужные оттуда же.
Садовский же вроде по-русски сказал, что пару дней выдача у разных серверов будет отличаться...
Это я в полной мере учитываю и говорю не о сегодняшнем дне, что видно из названия темы... Сегодня итак все или почти все ясно.
Думаю, что тс имел ввиду тот вариант, когда пользователь не найдет коммерческий сайт в 10-ке и пойдет дальше и в итоге найдет ресурс, если он конечно заинтересован в том чтобы купить, а не просто почитать. Но не думаю что даже если такое и будет, то будет выходить за рамки 5-10 позиций.
ТС, это все конечно интересно, но ведь действительно не факт, что пользователь пойдет на вторую страницу. Я например ухожу в гугл, когда не вижу нужной мне инфы, а там с высоким процентом вероятности я ее нахожу. Внедрив вышесказанное вами, яндекс может отдать пусть и небольшой но все же процент трафика другим поисковым системам. Не находите?
Да, согласен, авторитетность, именно, демократичного и качественного поиска для пользователей вполне возможно упадет, но не намного, потому как пользователь уже и сейчас привык не находить спустя недели две, понравившийся ему сайт по определенному запросу на том же месте.
ТС имел ввиду ужесточение борьбы с неестественным продвижением сайтов, и ,возможно, повторюсь, только, возможно, большую заинтересованность клиентов не в продвижении, а в контекстной рекламе сайтов, где все более очевидно.
Процент потери трафика наврятле будет большим (пользователи далеко не все живут в интернете! и знают о более качественой выдаче гугле и т.д.), а вот точто пользователь не каждый день ищет себе один и тотже "товар", при этом по ВЧ и СЧ наверника найдет то что искал при "рандоме" (о котором предположил ТС), думаю это факт.
Я не особо читаю блог яндекса да и за его официальными документами не слежу, однако в вебпланете наткнулся сегодня вот на это:
"...Вчера для многих жителей Рунета был обычный день. Надевали красивые рубашки, чтобы понравится руководству, и рваные джинсы, что бы понравится нигилистам. Однако для основных игроков рынка российской IT-индустрии - оптимизаторов - день оказался не простым.
Дело в том, что на ведущие форумы по оптимизации (Searchengines.ru, SeoChase.com) поступило интереснейшее сообщение от Александра Садовского, руководителя отдела веб-поиска компании "Яндекс", говорящие об изменениях алгоритма ранжирования.
Данное сообщение очень удивило оптимизаторский мир, так как обычно об изменениях в алгоритмах сначала узнавали лишь ответственные оптимизаторы, которые не спят ночью, а смотрят за прибавлением и убавлением беклинков на курируемый ими сайт. В данном случае "Яндекс" решил разорвать эти стереотипы и рассказать об изменениях заранее. Причем, на этот раз поисковик проявил исключительную порядочность и дал возможность исследовать алгоритм не всем, а только обладателям «счастливого билета»:
«Чтобы узнать, какой алгоритм ранжирования отработал ваш запрос, зайдите после получения результатов поиска на страницу http://www.yandex.ru/cgi-bin/hostname, где показывается имя сервера, который вас обслужил. Если оно выглядит как sfront??.yandex.ru или ludi.yandex.ru, значит, вам выпал счастливый билет и возможность потестировать новый поиск. Если имя выглядит как sfront2-???.yandex.ru, значит счастливый билет выпадет вам на днях».
На самом деле, в теории "счастливого билета" изложена маленькая составляющая чистой души бренда "Яндекса" (brand spirit). Суть этой духовности в том, что "Яндекс" стал предупреждать не самых удачливых оптимизаторов о возможных проблемах на их карьерной лестнице. То есть задача оптимизаторов в данный момент - узнать реальную выдачу, о чем руководство или клиенты узнают только через несколько дней (чтобы руководство узнало об этом позже, нужно дарить сисадминам социально агрессивные товары). Таким образом, у оптимизаторов появился шанс решить грядущую проблему карьерных сдвигов путем публикации резюме на сайтах о работе или подготовкой презентации о том, как важен Google и Rambler.
В частности, редакция "Вебпланеты" смогла найти в своем огромном парке зомби-компьютеров одну машину со "счастливым билетом" - и конечно, извлечь из этого нечеловеческую выгоду.
На данный момент не совсем ясно, что изменилось в алгоритме (это в целом сакральное знание), однако обсуждения по этому поводу будут продолжаться еще и день и ночь, и чем-то будут даже напоминать выборы Президентов. Только вместо голосов будут анализироваться беклинки, ссылочные бюджеты и подвижки в поиске. Однако сам по себе факт снисхождения верховных жрецов "Яндекса" до такого вот предупреждения - очень показательный шаг...."
Первоисточник http://www.webplanet.ru/knowhow/service/kavabatich/2007/07/04/ticket_to_the_moon.html
(P) (C) Дмитрий Андрияшкин
как видете, здесь несколько другое объяснение происходящему.
Olisher, мысль у Вас интересная, но говорить о том оправдались Ваши предсказания или нет ещё рановато, новый алгоритм может отлаживаться ооочень долго, причем по живому, это не говорит о введении рандомной выдачи.
все это хорошо, но кто сказал, что яндекс действительно борется с оптимизаторами и они ему невыгодны? ) хотел бы бороться - легко бы давно победил. )
Впрочем не исключаю описанное выше, почему бы и нет со временем. Но пока это не так.. )
хотел бы бороться - легко бы давно победил.
Врят ли. Так как, если сайты ранжируются по определенным критериям, то эти критерии можно вычислить и подделать.
Врят ли. Так как, если сайты ранжируются по определенным критериям, то эти критерии можно вычислить и подделать.
Зачем яндекс разрешает смотреть бэклинки, тиц сайта, прочие параметры?
Вы верите, что обычные пользователи этим пользуются при поиске? )