- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
ппц, читаешь отзывы и понимаешь - конец света пока проходит мимо меня.
28 проектов в работе, 26 на месте, 2 упало но максимум по 30% ключам. один клиент только заметил что немного сползли остальные даже не почуствовали ничего. также были 6 проблемных проектов 4 по прежнему в жопе, а вот 2 четко дали плюс по всем ключам (ВК тематики туризм, СЕО). сказать честно не понял почему так стрельнуло их, странно но единственное что их объединяло - недостаточное финансирование (скажем первый на 40 сложных ключей по туризму всего 8К в сапу). т.е. они 17 числа обскакали сайты с бюджетами в 2-3 раза больше. В общем на моем примере получилось что незаспамленные тысячами ссылок сайты резко скакнули вверх и обошли высокобюджетные.Это касательно вопроса увеличивать бюджет в снежке или нет. В снежке рулит не количество а качество (в прочем количество если его много тоже рулит)
Ув. Гудман, что касается вашего пессимистичного настроя могу сказать что яндекс никогда не сможет победить сеошников. Мы (оптимизаторы) боремся НЕ с Яндексом,а между собой. Знать точную форумлу алгоритмов и медитировать на ICF не надо - достаточно разбираться в ранжировании на пол шага лучше товарищей по цеху.
ещё одно неприятное наблюдение: на одном из продвигаемых сайтов "показатель отказов" вырос почти в два раза (с 35% до 60%), посещаемость при этом осталась почти такой же как была (со 120 упала до 105). при этом позиции перетряхнуло очень сильно. и получилось, что сайт выполз по каким-то левым запросам вверх.
надеюсь, что снежопинск таки ещё в процессе обучения.
обучалки ведь у коммерции и некоммерции разные..
В принципе, можно предположить, что на части комм. выдачи изначальная выборка сайтов для оценки была специально отобрана из некоммерческого массива (например, ссылочные доноры для них не участвуют в биржах).
Тогда, соответственно, в итоговой формуле оценки релевантности большой вес приобрели не типичные сео-факторы.
...в итоговой формуле оценки релевантности большой вес приобрели не типичные сео-факторы.
+1. На многих примерах у себя вижу подтверждение. А сами нетипичные факторы могут быть разными.
я далек от математики, но с ваших разговоров сложилось впечатление что алгоритм теперь стал обучаем.
Алгоритм давно уже был обучаем, сейчас сменилась методика обучения.
То есть теперь раз в месяц можно показать алгоритму "хорошие" и "плохие" сайты и он сам определит важность тех или иных факторов релевантности? Тогда яндексоидам не нужно отслеживать новые ухищрения СЕОшников или дорвейщиков и ГСспамеров, алго подумает и сделает это за них.
Я несу бред или где то мелькнула верная мысль?
Отслеживать ухищрения сеошников или дорвейщиков - не единственная задача Яндекса. Сео-запросы в общей массе не составляют большинства. А выдача должна быть адекватной по любому запросу, это в идеале.
Если в обучающую выборку сунуть некоторое количество пар (запрос,дорвей) с низкой "истинной" релевантностью, то по этим конкретным запросам дорвеи конечно же вылетят из топов, а вот найдутся ли таким образом все дорвеи данных типов? Может и найдутся, не зря же у документа сотни признаков. :)
А неоправданно пострадавшие от АГС не подойдут? Минтранс какой-нибудь?
А в чем пострадал сайт Минтранса? Поискового трафика с Яндекса стало меньше?
Заметил очень интересный момент, хотя может уже кто-то уже и озвучил.
Многие тут говорят о старых ссылках, я скажу, что действительно старые ссылки работают, но вот какой момент я заметил еще: думаю, что старые ссылки, если они все с одним анкором и без околоссылочного текста перестали клеить. Дело в том, что года три-четыре назад я занимался одним сайтиком. Менялся ссылками, размещал в белых каталогах и везде ставил один и тот же анкор, без всякого текса вокруг него. Сейчас этот сайт вылез в топ.
Вот так вот...
Если новая формула ранжирования так или иначе базируется на оценках асессоров, то оценки-то эти, по релевантности запроса документу, всё равно формируются на базе предыдущей выдачи (которая - во всяком случае, в коммерческой её части - сформирована сеошниками, по всем известным принципам внутренней и внешней оптимизации).
Или всё-таки возможен вариант, когда даже в чисто коммерческом сегменте (вроде тех же кондиционеров, где сайты "накачаны" вплоть до 50х позиций) обучение на практически 100% сеошной выдаче приведёт к тому, что в топе появятся некоммерчески-"естественные" ресурсы?
Возможно такое?
Маловероятно. Я думаю, что сео-топы останутся коммерческими, только сделаются менее просчитываемыми, если не найдутся лекарства. :)
Хотелось бы узнать мнение Мэтров на тему: будет ли нынешний алгоритм Яндекса развиваться в следующих версиях в сторону усложения (и всем придется идти на второе математическое В/О :) ), или он уже достиг максимума, и дальше будет легче?
только сделаются менее просчитываемыми
А за счёт чего?
Какой из нескольких тысяч факторов (которые, опять же, так или иначе учитывались оптимизаторами, ведь правильно?) после обучения вдруг вытеснит типичные факторы прежних релизов, навроде количества точных вхождений в тексте документа сайта-акцептора, или примерно одинаково понимаемой "жирности" ссылки с донора?
Допустим, в обучаемых парах "запрос-документ" оценщики отдавали предпочтение страницам, перегруженным тегами заголовков и километровым мета-дескрипшн - что, в итоге обученная формула будет ставить схожие ресурсы выше остальных в выдаче?
Или они на что-то другое равняются? Не на время же загрузки страницы, в самом деле...