- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Вам не кажется, что следует поискать другой путь? К каждому сайту индивидуально! На основании его улучшения, как и советует Яндекс?
Агент Яндекса? 😆
Мне не кажется такой подход удачным. Почему, потому, что я не знаю, что Яндекс понимает под улучшением. И абсолютно не уверен, что улучшив сайт я получу место в топах. А если посмотреть на топы, то мне нужно срочно ухудшать сайты, а не улучшать. 😆
Мы имеем дело с машинной оценкой и оценкой асессоров, как бы не хотелось Яндексу, чтобы мы доверились умному механизму и специально обученным школьникам — но коммерческое предприятие пойти на это не может. Да, выдачу трудно смоделировать, возможно через два алгоритма это будет вообще не реально, но ведь факторами мы можем управлять. Результаты известны, раньше был путь повторения характеристик сайтов из топа, сегодня будет моделироваться путь естественного развития. Есть масса факторов которые Яндекс не может учесть, поисковик это ещё не интернет и уж тем более не интернет+пользователи, чтобы иметь возможность всё проконтролировать. Если нет возможности работать с причиной — всегда можно работать со следствиями. Не стоит уж так сгущать краски.
Да и Яндексу не очень нужно бороться с сайтами, которые имеют хорошую информационную составляющую, посещаемы и привлекают внимание пользователей.
Агент Яндекса? 😆
Мне не кажется такой подход удачным. Почему, потому, что я не знаю, что Яндекс понимает под улучшением. И абсолютно не уверен, что улучшив сайт я получу место в топах. А если посмотреть на топы, то мне нужно срочно ухудшать сайты, а не улучшать. 😆
Приведу небольшой пример улучшения:
Есть один сайт под СЧ/НЧ запросы, главная продвигается по нескольким СЧ. 2 недели назад убрал бредотекст с главной (около 2к текста, по 1 вхождению каждого синонима), вместо него заказал продающий на 3к символов, в котором теперь всего 2 разбавленных запроса.
Результат - все позиции на месте, как и были.
Я это к тому, что фильтр ТС на текст реально позволяет без потерь в позициях менять бредотексты на продающие. Не оглядываясь на то, что там может и не быть продвигаемых запросов, а некоторые только в тайтле.
Пример №2 - есть заброшенный сайт-визитка (но не такой старый), на главную ведут 4 разных СЧ запроса и ещё пару на внутренние. До ТС был в топ20, сейчас плонто засел в Топ5. На главной тоже текст ориентирован на пользователя, точных вхождений нет совсем.
Ну разве не улучшения?
Это первый шаг. ИМХО, следующий - убрать тот же спам в ссылочном, заставить продвигаться естественным образом.
Посмотрите на большого гугла и как там продвигаются. По-моему очевидно что яша движется туда же.
Я это к тому, что фильтр ТС на текст реально позволяет без потерь в позициях менять бредотексты на продающие.
Фильтр ничего позволять не может, он может только ограничивать в чём-то. :)
А алгоритмы до сих пор неровно дышат к большим текстам.
Возможно "ноги" определения спамности ещё отсюда растут.
Посмотрите на большого гугла и как там продвигаются. По-моему очевидно что яша движется туда же.
Ну там впринципе молодой сайтик ссылками можно без проблем в топ вытащить, просто опять же не все ссылки хороши.
Возможно "ноги" определения спамности ещё отсюда растут.
Растут вряд ли, т.к. первый фильтр вышел 20го января, а новость появилась позже. Очень сомневаюсь что яндксоиды сначала сделали, а потом похвастались покупкой.
Ну там впринципе молодой сайтик ссылками можно без проблем в топ вытащить, просто опять же не все ссылки хороши.
Ну так и с яшей можно, никто ж не спорит. Но:
1. Google.com официально против жесткого спама и покупных ссылок в частности (не будем про всякие НК запросы и прочие исключения).
2. Продвиженцы там в гораздо большей степени маркетологи, чем у нас. Думаю это следствие п.1.
Ну там впринципе молодой сайтик ссылками можно без проблем в топ вытащить, просто опять же не все ссылки хороши.
угу, по "car insurance". На консультацию записаться можно?
Возможно "ноги" определения спамности ещё отсюда растут.
Нет, отсюда не растут, данная технология пока не используется в поиске Яндекса.
При смене текста анкор-листа изменится множество факторов пары (запрос, документ), скорее всего - тысячи факторов. Соответственно, функция ранжирования насчитает документу совершенно другую релевантность запросу, которая может оказаться и выше предыдущей. А может и не оказаться. И % точных вхождений конечно же теоретически может быть самым важным фактором (если такой фактор вообще существует), но практически этого не определить таким экспериментом. :)
Практически для визуализации процесса и помощи в борьбе составляется приблизительно такая табличка по продвигаемому запросу:
1. Количество анкоров с прямым вхождением -…
2. Количество анкоров с текстовым окружением -…
3. Количество анкоров с разбавлением -…
4. Количество слов из текста запроса в анкорах с окружением -…
5. Количество слов из текста запроса в анкорах с разбавлением -…
6. Количество анкоров со словами без текста запроса -…
7. Количество вхождений в title продвигаемой страницы -…
8. Количество вхождений в h1 продвигаемой страницы -…
9. Количество вхождений в h2 продвигаемой страницы -…
10. Количество вхождений в остальной контент продвигаемой страницы (кроме h1, h2 и title) -…
11. Тошнота страницы по запросу -…
12. Количество вхождений ключа в самый спамный пассаж на странице -…
Далее, изучаем внимательно эту табличку, думаем и меняем то, что необходимо. Ждём АПа, смотрим какой был АП, чекаем позиции. Сопоставляем, думаем, снова меняем если надо и т.д.
Ну и выйти из под данного фильтра таким логическим путём постепенно получается.
Но мне интересно другое, насколько эти практические изыски соотносятся с теорией? Возможно, что в приведенном списке уже есть и лишние основные факторы для пар (запрос, документ), как думаете? 🚬
Еле как осилил весь этот топик.
Спамность анкор-листа, бредофильтр, точнее, неправльно сформулированный термин.
По сути этот фильтр накладывается не на те сайты где 100% прямого вхождения. Там задействовано очень много факторов , которые, если начать перечилять, форум сляжет. Ну к примеру, возраст сайта, возраст документа, разбивка ключей по страницам (семантика).
Ссылочное, несомненно, играет основную роль, но, представьте картинку, сделали Вы сайт о кухнях, прошло 2 дня, поставили текст на морду, и через 2 часа купили 1000 сслок с анкором "рыбалка" на ту же самую морду. Что скажете? Спамность анкор листа? А может проще?- кривые руки!
В общем, что хочется отметить, дорогие мои, если сайт упал, то ссылочное смотреть нужо далеко не в первую очередь.
Чем сейчас нужно заниматься- так это повышением забилити сайта!
У меня нет огромной кучи проектов за плечами, но, могу с уверенностью сказать, чем качественнее сайт, чем юзабильнее его дизайн, тем его проще задолбить ссылочным к топу. Ну о возрасте я вообще говорить не буду.
А стереотип разбавки анкор-листа в СЕО будет еще долго. Я сам до сих пор это делаю. Беру максимум 10% точного вхождения, мне, знаете, так как-то проще. А остальные 90% - эт оуж кто как умеет, есть много тем спаленых и не спаленых!!!
Если есть десятилетний хороший сайт, то двигать его можно хоть чем, в принципе неважно, Вы только в 0.00001% случаев можете по шапке получить!!!
Кто то тут сказал что яша имеет доступ к Li, давно так не смеялся...
Поведенческий фактор есть (допустим даже, самое важное, 1) Переходы по ссылкам на сайте, 2) тепловая картина, 3) Времени просмотра страницы), но, невсесилен он.
Есть сайты, где нет ни метрики, ни счетчиков, и НА пк нет всяких баров, как в таком случае Я может отследить поведение пользователя на сайте? Никак, своих глаз-лазеров у него нет! А для того, чтобы сложить некую картину поведения пользователя на сайте нужно не одно посещение, а сотни/тысячи. Только тогда сложится нечто среднее, из чего уже Я может строить свою картину происходящего. А мощностей-то сколько нужно. Уууххх...
Ссылочный взрыв кстати, очень опасная шняга, бывает принимаю сайты от "продвиженцев", так на то чтобы отмыть грязь тратится ооочень много времени. Но, есть кстати способ обойти этот фильтр, покупая даже тонны ссылок.
Ну и, напоследок:
ГС, среднеконкурентный топ. В топе сайт, ГС блин, стронгами всё заброшено, ссылки продает аж по 10 штук с морды, юзабилити 0, ссылок на сайт почти нет. Сидит параша в топе, как вкопаный. И вот он фактор, моооооощный - возраст сайта!!! Если не он, не знаю даже что уже, кому интересно поржать - ссылку в ЛС могу кинуть!
Ах, вот еще, грузовые авиаперевозки
нереальная жесть
Не нужно сейчас что-то анализировать. Яша крутит свой пульт как только может. В ромашку играют, не определились еще.