- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Была бы так называемая квота, позиции скакали бы, в гугле же в основном держится все на своих местах (наблюдения за личными проектами).
А по вашей теории получается что, к примеру есть один ВЧ в топ2, квота гугла на данный ВЧ или на сайт = в 1000 хостов, если он сегодня выдал 2к хостов, то он завтра выдаст 500, для этого он должен опустить ВЧ из ТОП2 к примеру на ТОП7? По моему это бред. Все зависит от того сколько людей ищет данный ВЧ, сегодня ищут 1000 человек, завтра 2000.
Была бы так называемая квота, позиции скакали бы, в гугле же в основном держится все на своих местах (наблюдения за личными проектами).
А по вашей теории получается что, к примеру есть один ВЧ в топ2, квота гугла на данный ВЧ или на сайт = в 1000 хостов, если он сегодня выдал 2к хостов, то он завтра выдаст 500, для этого он должен опустить ВЧ из ТОП2 к примеру на ТОП7? По моему это бред. Все зависит от того сколько людей ищет данный ВЧ, сегодня ищут 1000 человек, завтра 2000.
Опять рассуждения без понимания идеи. Не будет Гугл снижать на следующий день ничего. По ВЧ невозможно сидеть в ТОП2 превышая имеющуюся квоту. Если сайт сидит в ТОПе по ВЧ, значит количество показов по этому ВЧ не превышает квоты. При этом, если квота все таки низка, то он будет иметь очень короткий хвост остальных запросов. А если сайт при наличии квоты имеет огромный хвост запросов, то ему не светит ТОП по ВЧ. В вашем примере, если количество запросов по данному ВЧ резко возрастет и это возросшее количество будет стабильным, то Гугл начнет подстраивать позиции так, чтобы сайт укладывался в свою квоту. Судя по наблюдениям, подстройка занимает порядка месяца. Гугл как бы подбирает набор запросов и позиций по ним, чтобы они выдавали требуемое количество показов.
Ms-Dred при квоте на клики такого не будет, т.к. гугл легко может расчитать позицию так, чтобы выбрать ровно столько сколько положено. Т.е. если вам положено 1000 кликов, то вы на 2 позиции, но допустим в течении дня накликиваний оказывается чуть больше, он вас опускает на одну позицию вниз, если все еще квота выбирается полностью опускает еще, затем поднимает. Чем не алгоритм ранжирования? А квоту рассчитывать как обычно по ссылкам и трасту помноженную на значения фильтра. Но вообщем-то все это не имеет особого значения, т.к. даже если квота и есть, то мы изменить можем только улучшая качество сайта, т.е. обычными методами.
Была бы так называемая квота, позиции скакали бы, в гугле же в основном держится все на своих местах (наблюдения за личными проектами).
А по вашей теории получается что, к примеру есть один ВЧ в топ2, квота гугла на данный ВЧ или на сайт = в 1000 хостов, если он сегодня выдал 2к хостов, то он завтра выдаст 500, для этого он должен опустить ВЧ из ТОП2 к примеру на ТОП7? По моему это бред. Все зависит от того сколько людей ищет данный ВЧ, сегодня ищут 1000 человек, завтра 2000.
Если вы каким то образом перебираете суточную квоту, то Гугл найдет что поднять, что опустить, и совсем не обязательно он выдаст позиции с минусом именно вашей чекалке позиций, а не потенциальному посетителю, и именно на тот запрос который вы чекаете. При этом вам уже объяснили выше, почему он не выдаст вам 2К хостов
Ms-Dred Но вообщем-то все это не имеет особого значения, т.к. даже если квота и есть, то мы изменить можем только улучшая качество сайта, т.е. обычными методами.
В том то и дело, что далеко не обычными методами. Очень немногие работают с сайтом комплексно, и еще меньше работают с сайтом досканально. Обычно так работают только со своими самыми достойными сайтами. А из SEO-контор, если кто-то такое и делает, то для особых клиентов и за совсем отдельные деньги. Поэтому теория и встречает такое сопротивление. Тем, кто привык действовать только в рамках плотности ключей и количества ссылок, мысль о том, что придется реально работать с сайтом, выискивая огрехи и исправляя их, хуже лоботомии. А если еще эта теория дойдет до заказчиков, сидящих под монохромным зверинцем без симптомов освобождения, так им вообще хана. Вот и остается высмеивать идею ничего не предлагая в замен.
Slavomir ну я не из сео конторы, я свои сайты двигаю. Вообще мне идея с квотами нравится, если их нет, то их стоило бы ввести на месте гугла. Это бы упростило поисковый алгоритм, а также позволило бы объединить алгоритмы выдачи при поиске и адвордсе(один бы искал во внешних сайтах, другой по базе адвордса).
Slavomir ну я не из сео конторы, я свои сайты двигаю. Вообще мне идея с квотами нравится, если их нет, то их стоило бы ввести на месте гугла. Это бы упростило поисковый алгоритм, а также позволило бы объединить алгоритмы выдачи при поиске и адвордсе(один бы искал во внешних сайтах, другой по базе адвордса).
А мне она не нравится. Потому что такая модель если задуматься, крайне опасна для оптимизаторов и продвижения. Она очень хорошо может прятать алгоритм выдачи.
Увидел в топике огромное кол-во "клонов" Тар'а
Slavomir ну я не из сео конторы, я свои сайты двигаю. Вообще мне идея с квотами нравится, если их нет, то их стоило бы ввести на месте гугла. Это бы упростило поисковый алгоритм, а также позволило бы объединить алгоритмы выдачи при поиске и адвордсе(один бы искал во внешних сайтах, другой по базе адвордса).
Не знаю, насколько это может упростить поисковый алгоритм, но жизнь оптимизаторам оно однозначно усложняет. Главная проблема в том, что после введения пингвина, Гугл до си пор не может нормально отстроить этот алгоритм, чтобы обеспечить хоть сколь ни будь приличную выдачу.
---------- Добавлено 10.11.2012 в 22:11 ----------
А мне она не нравится. Потому что такая модель если задуматься, крайне опасна для оптимизаторов и продвижения. Она очень хорошо может прятать алгоритм выдачи.
О чем я и говорю. Это не столько скрывает алгоритм выдачи, сколько исключает возможность целенаправленной манипуляции выдачей. Эту задачу Гугл декларирует прямо и открыто, а потому данный механизм вполне правдоподобен.
Не знаю, насколько это может упростить поисковый алгоритм, но жизнь оптимизаторам оно однозначно усложняет. Главная проблема в том, что после введения пингвина, Гугл до си пор не может нормально отстроить этот алгоритм, чтобы обеспечить хоть сколь ни будь приличную выдачу.
.
Алгоритм нормальный (почти) Количество рекурсий нужно больше.