- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Так если сайты подходят под запрос, причём подходят примерно одинаково, то как может помешать поисковику то, что наверху будет наиболее продвинутый сайт?
Поисковику мешает грязный шлейф оставляемый продвигаемым сайтом. Горы ссылкопомоек, покупка морд, спам на форумах и гостевых и пр. методы "любой ценой в десятку". Битвы идут не шуточные, поле брани устилают трупы... При этом, ситуация со временем только обостряется. Зачем ПС рыться на этой свалке? Не проще ли просто лишить "бойцов" цели и направить их усилия в более полезное русло (см. про чистку сараев (с) Булгаков).
Все это останется, даже если введут рандом.
...В высокочастотниках - другое дело, но их не так уж и много по сравнению с среднечастотными запросами, наверное можно сказать, что этими высокочастотниками являются только коммерческие. По остальным делать ротацию смысла нет..
Дык я про эти коммерчиские высокочастотники и говорил. Возьми любой - неконкретный навигационный запрос.
Еще один плюс рандома - подобный эффект будет сглажен. Сегодня такой сайт третий, завтра - 25-й. Если "ошибочных" сайтов не много, то в среднем, в 10 они попадать будут реже, чем полноценные.
Ну, если кроме дорвеев фантазии не хватает, то да. При этом, Яндекс тоже не стоит на месте и улучшает технологии борьбы с дорвеями.
Могу привести собственный пример - я собираю огромную массу низкочастотников (причем до 30% совершенно не тематических), без единого дорвея и без единой внешней ссылки. Только на грамотно организованном и уникальном контенте.
Дык! Просто усилий на это потребуется меньше. Соотв. будет меньше грязи.
И спецразмещения :) Про это действительно не стоит забывать, кстати.
Во вторых, забой ссылок принципиально ничего не изменит - все, например, начнут делать шаровые каталоги на каких-нибудь бесплатных доменах типа com.ru (или например в .инфо за несколько баксов), и меняться не ссылками, а например, возможностями добавления в собственный каталог.
Подобные каталоги никогда не получат тематики и приличного "веса", соотв. и ссылки с них будут иметь минимальный эффект.
Война брони и снаряда... Не без того. Вопрос в трудозатратах. Почему алгоритм PR так эффективен? (был?) Потому, что на него влиять труднее, чем на контент.
Придет время и появятся новые принципы ранжирования, так же как и методы воздействия на них...
А одно другому не мешает :)
Polite Moose, не пойдет Я своим путем, скорее всего пойдет по пути похожем на патент Гугла.
зачем изобретать велосипед с квадратными колесами?
Патент гугла пока тоже далеко не панацея от всех бед.. хотя в условиях рунета его внедрение, разумеется, будет иметь более чудовищные последствия, чем в гугле.. тут за бразильский фрихост уже не спрячешься. :) Ну ведь и многое из патентованного можно обойти, если захотеть, - покупать в месяц 20 - 30 доменов для дальнейшех разработок, создавая им историю, держать кучу хостинов и т.д. Т.е. все это усложнит жизнь, но принципиально не изменит ее уклад, как мне кажется. Да и посмотрите, что при этом происходит с ценами на рекламу.. а соотвественно и на нашу работу. :)
Все равно получается замкнутый круг - если накладываются жесткие санкции, то сразу начинается активная работа по их преодолению. Мне почему-то кажется наоборот нужно стремиться к некой стабилизации и определенности.. жизнь в поисковиках очень похожа на обычный социум - как только начинается революция сразу поднимается все, что было на дне. Вместо, например, работы над контентом на сайте приходится срочно заниматься разной фигней.
Я думаю, что чем меньше ситуация определена и понятна, тем больше вероятность более логичной и результативной выдачи. (Хотя слово результативной скорее употребляю с оптимизаторской точки зрения :)
Вот например, если бы через бар был доступен виц каждой страницы - ведь в результате мусорок было-бы меньше.. возможно не на много, но меньше - все-бы хотя-бы смотрели на сайт, прежде чем с ним меняться.
Ну а нет вица - есть другой параметр - количество.. от этого и пострадали.
Поэтому наоборот выгоднее, что-бы сайт нес на себе каталог ссылок - это-же элемент ответственности.
Ну к шаровым доменам у Я воще своя политика. Ведь мало создать каталог, нужно еще создать беклинки. А если это опять превратится в нетематическую помойку, так всеравно результат 0.
Еще один плюс рандома - подобный эффект будет сглажен. Сегодня такой сайт третий, завтра - 25-й. Если "ошибочных" сайтов не много, то в среднем, в 10 они попадать будут реже, чем полноценные.
Ну я думаю, что так глубоко ротация все-же не будет.. Некий максимум - в пределах десятки.. Все просто будут делать больше сайтов - если сейчас их стыдливо распихивают по разным запросам :), то при рандоме будут пытаться вставить в один.
Ну, если кроме дорвеев фантазии не хватает, то да. При этом, Яндекс тоже не стоит на месте и улучшает технологии борьбы с дорвеями.
Скажу честно - я не знаю что у Яндекса с дорвеями. :) Мне тоже нравятся низкочастотники и вроде с ними нет пока проблем. Я лишь пытаюсь сказать, что рандом только увеличит количество мусора в результате.
Вместо одного сайта по запросу народ начнет продвигать 10.
Да и мало того, еще не ясно, будет ли рандом хуже.. Для меня - точно нет, я хоть спать начну спокойно..
И еще хочу сказать, что и при рандоме можно беспроблем собирать то-же количество трафика, что сейчас, а цены на продвижение, например, вырастут, вслед за директом, рост на который будет неизбежен.
Дык! Просто усилий на это потребуется меньше. Соотв. будет меньше грязи
Хм.. ну мне почему-то все-же кажется, что в результате просто количество сайтов вырастет катастрофически и уже никаких индусов не хватит.. :)
Поисковику мешает грязный шлейф оставляемый продвигаемым сайтом. Горы ссылкопомоек, покупка морд, спам на форумах и гостевых и пр. методы "любой ценой в десятку".
Сейчас продвигать надо от одного до десяти сайтов на тему. А придётся тридцать. Трудоёмкость возрастёт - возрастут доходы профессионала - возрастёт количество спама. А сетку из тридцати сайтов двигать не так уж сложно.
ra_242, верно говорите, на рандом найдется свой ответ ;)
от ссылок мы не уйдем, но даже сейчас понятно что не смотря на войну по высококонкурентным запросам основной трафик дают и будут давать низкочастотники и здесь оптимизатор и поисковая система - друзья и товарищи :)
я не думаю что Я будет внедрять рандом для нескольких сотен запросов. По ним все равно выдача релевантная. Давайте смотреть шире, задача ПС дать наиболее правильный ответ на запрос пользователя и эта задача не будет решана рандомом одной другой золотой сотни запросов
-=Илья=-,
С вашим утверждением трудно не согласится. Но оно еще подтвердает и то, что вместо того, чтобы уменьшать количество мусара в сети, и копий информации, нас вынуждают плодить его, ну или не дубли, а вариации на тему.