- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
я все же переспрошу, есть какая либо информация, на любых языках, в любом виде, что есть такой инструмент?
Я бы сформулировала по-другому: "Нафига Гуглу такой инструмент? Что он сможет получить с его помощью?"
Выдача Google станет от него лучше? В зоне Рунета Яндекс быстро подберёт под себя пользователей, которым не понравится выдача G.
PS: Систему распределения "по карточкам" мы все проходили не так давно - ничего хорошего она не дала ни потребителям, ни производителям.
фуфуфу. тоесть по Вашему алгоритмы ранжирования гугла основаны на гадании по руке Каца? или все же там четкие математические модели опирающиеся на сотни взвешенных факторов.(которые они щас до ума не могут довести)
Я предполагаю, что все основывается на каких-то сигналах, поступающих от фильтров. Фильтр, обнаруживая недостаток отправляет сигнал. По совокупности этих сигналов вычисляется квота. По квоте сайту определяются страницы выдачи по каждому из запросов, которым он релевантен, так, чтобы по имеющейся статистике он не выходил за квоту. Таким образом, фильтр понятия не имеет, какое действие и на что он окажет, т.к. работает совокупность фильтров с непредсказуемым результатом.
как по мне то максимум ограничивается лишь кол-вом запрос в поиске.
Можно было бы так думать, если бы не появление фактов, когда посуточная динамика посещаемости с Гугла отличается от динамики посещаемости с Яндекса или когда суточная динамика трафика с Гугла или позиций в Гугле ведет себя странно, то можно оценить, как подстройку под квоту.
Да и вообще, гугл решил коммунизм устроить и всех уровнять? так они его там не любят😂
И через какой механизм?
---------- Добавлено 04.11.2012 в 09:18 ----------
только потом кто будет объяснять как рассчитывается этот мифический параметр?
Предполагаю, что это некоторый аналог формулы релевантности, параметрами которой являются какие-то характеристики сайта и сигналы от фильтров. Чем больше негативные параметры, тем меньше квота. Возможно есть и позитивные параметры. Например, по наблюдениям, противовесом весьма сильным негативным характеристикам пока весьма эффективно служит огромное количество страниц сайта (от сотен тысяч до десятков миллионов). Более того, именно такие сайты занимают множество позиций в выдаче.
тогда приходит пингвин (понимаю, что ссылки бывают разные)
Если ресурс развивается, то растут траст, позиции и траф и ... ну при чем тут придуманное на серче понятие, для определения какихто непоняток с сайтом?
дайте определение, что такое траст и как его посмотреть? …
Я пока из присланых скринов видел только один сайт у которого был выбран потолок и после 6 октября он подрос. Тогда может прийти не только пингвин. Я думаю что происходит подробная проверка сайта на соответствие требованиям и решение по сайту. Возможно и увеличение квоты и панда и пингвин и вероятно что-то еще.
Я бы сформулировала по-другому: "Нафига Гуглу такой инструмент? Что он сможет получить с его помощью?"
Сделать привычную SEO-манипуляцию выдачей невозможной. Эту цель Гугл декларирует весьма открыто.
Выдача Google станет от него лучше? В зоне Рунета Яндекс быстро подберёт под себя пользователей, которым не понравится выдача G.
А разве этого уже не произошло? Сходите в Алексу и посмотрите рейтинги доменов Гугла и рейтинги Бинга и доменов Яндекса.
PS: Систему распределения "по карточкам" мы все проходили не так давно - ничего хорошего она не дала ни потребителям, ни производителям.
Это не система распределения, а скорее система наказания. Чем больше напортачил, тем больше ограничение.
Сделать привычную SEO-манипуляцию выдачей невозможной.
Чего уж проще - сделать рандомную выдачу - и никаких манипуляций. Основная задача ПС - понять, что хочет пользователь и дать ему возможность это найти как можно проще. Все остальные цели - вторичны, и не должны мешать основной.
Это не система распределения, а скорее система наказания. Чем больше напортачил, тем больше ограничение.
Системой наказаний адекватную выдачу не сделать. Это - тупиковый путь развития.(у нас ещё недавно пытались построить общество на системе наказаний)
Пользователь должен найти, что ищет, или он уйдет в другую ПС.
А разве этого уже не произошло? Сходите в Алексу и посмотрите рейтинги доменов Гугла и рейтинги Бинга и доменов Яндекса.
Не знаю, кто такой Алекс(шутка), и почему должна ему верить.
У меня на анализе 150 000 уников в сутки по разным тематикам и регионам.
Гугл сливает Яндексу по полной, кроме Москвского региона и Украины.
И семантику "великого и могучего" Гугл так и не освоил, чуть отклонение запроса от именительного падежа - в гугло-выдаче "всякая хрень".
Найти ответы в Google можно, но приходится листать до 2-3 страницы выдачи.
В Яндексе - ответ либо на 1-ой страницы, либо его в нём не найти.
Это не система распределения, а скорее система наказания. Чем больше напортачил, тем больше ограничение.
Не согласен. Это система контроля. Она не наказывает, она запускает механизм проверки и уже эти механизмы наказывают.
Не согласен. Это система контроля. Она не наказывает, она запускает механизм проверки и уже эти механизмы наказывают.
Может быть ваша теория о том, что упирание в "потолок" вызывает интерес фильтров Гугла и верна. Выглядит правдоподобно, хотя этот может быть и не единственный повод интереса фильтров. Это как бы должно минимизировать нагрузку на анализаторы фильтров. Однако, на графиках мы видели "потолки" в течение длительного времени, и предполагается наличие регулировки в течение суток, чтобы сайт не выходил за "потолок". Это должно приводить к постоянному дерганью фильтров для перепроверки. И где здесь минимизация нагрузки? Тогда надо сайт опускать так, чтобы он в свой "потолок" не упирался, а если упирается, то "потолок" - это в первую очередь ограничитель. Если провести аналогию с детьми, одним Гугл говорит "гуляй, где хочешь", другим - "за двор ни ногой", третьим - "на улицу не выйдешь", а четвертым "встань в угол". И что это, если не система наказания?
---------- Добавлено 04.11.2012 в 10:32 ----------
Чего уж проще - сделать рандомную выдачу - и никаких манипуляций. Основная задача ПС - понять, что хочет пользователь и дать ему возможность это найти как можно проще. Все остальные цели - вторичны, и не должны мешать основной.
Ага, а чиновник должен служить народу, ГИБДДшник - обеспечивать безопасность движения и т.д. Какой прок в этой теории, если на практике видим совершенно другое?
Системой наказаний адекватную выдачу не сделать. Это - тупиковый путь развития.(у нас ещё недавно пытались построить общество на системе наказаний)
А система постоянного SEO-манипулирования и наращивания ссылочных бюджетов - это не тупиковый путь развития? К тому же, еще ни одна страна не отказалась от уголовного или налогового права. И подавляющее большинство людей не нарушает закон не потому, что они такие ответственные, а потому, что за нарушение может последовать наказание. А переход от системы вседозволенности к системе правовых ограничений никогда не бывает простым.
.
Системой наказаний адекватную выдачу не сделать. Это - тупиковый путь развития.(у нас ещё недавно пытались построить общество на системе наказаний)
Пользователь должен найти, что ищет, или он уйдет в другую ПС.
.
Во первых это сейчас пытаются построить общество на системе наказаний. :)
Во-вторых все зависит от количества циклов. И неотвратимости наказания и чем быстрее оно будет настигать тем эффективнее будет система. У пингвина сейчас только два недостатка: слишком редко обновляется, и отсутствие гарантии выхода при снятии "плохих" ссылок, а может расхождение в понимании что такое "плохие"ссылки в глазах вебмастеров и гугла. :)
Почему вы считаете панду и пингвин наказанием? Это один из инструментов ранжирования. Ведь сказано не покупайте ссылки, а вы их покупаете? Мы не наказываем Ваш сайт, а приводим выдачу вашего сайта в соответствии с тем уровнем, каким он был бы без покупных ссылок (по нашему мнению) то же самое и панда. Вы просто смотрите на позиции, которые были достигнуты путем манипуляций. Это извините не Ваше достижение, а наша ошибка и мы ее исправляем. :) с этой точки не рассматривали? Качество выдачи у гугла во многих случаях выше чем яндекса.
Вопрос глюков с подъемом ряда ГС и нескольких страниц одного сайта в выдаче после обновления пингвина, это вопрос количества иттераций обновлений пингвина.
Slavomir, vagogrande, я за вас рад! Искренне!
Блин, народ. Гугл не так давно запатентовал своё "новое изобретение", а именно вводить вебмастера в заблуждение всеми этими скачками позиций и прочими "стабильностями", и наблюдения за его действиями. Как при таком раскладе можно определять потолки?