Алгоритм будет раскрываться, только если будет возможность играться с показателями ссылок. Поэтому я и сказал, что параметр ссылки вебмастером должен выставляться однократно. Если система бинарна, то вебмастер сможет один раз сказать, учитывать эту ссылку или нет. Если система дифференциальна, то один раз выставить некую оценку доверия данной ссылке. Я бы сейчас с удовольствием поудалял бы ряд явно левых ссылок непонятного происхождения.
Может вам еще и кнопки "Поместить в ТОП10", "Поместить в ТОП5" и "Поместить в ТОП1" сделать? 😂😂😂
Вероятно потому что ПС не может проиндексировать весь новый сайт сразу, да еще с одновременной индексацией старых сайтов и сопоставлением всего со всем. Это требует времени. А потом уже в действие вступают АГС и его аналог у Гугла.
Извините, но вы говорите полную глупость. Вы просто посчитайте. Возьмем скромный сайт с 1000 страниц размером всего 10 кБ. Чтобы выкачать весь этот небольшой сайт за секунду потребуется пропускная способность канала под 100 Мбит. А теперь представьте, что только на одном сервере таких сайтов может быть от нескольких десятков до нескольких сотен. Какой хостинг обладает такими каналами связи? А если речь идет о сайте, где сотни тысяч страниц в десятки килобайт, то на него одного никаких каналов связи не хватит. А теперь представьте эту ситуацию на стороне серверов ПС, когда эти данные качаются с многих тысяч серверов и многих миллионов сайтов, а еще надо синхронизировать эти данные между серверами ПС.
Я вот не пойму, то такого сложного с введением данного инструмента. Очень сложно дополнительное поле добавить в БД с ссылающимися страницами и сделать в вебмастерс тулз интерфейс по однократному изменению значения данного поля? Думаю и с введением данного значения в формулу релевантности ПС тоже проблем быть не должно. Так в чем же проблема?
А вы сможете определить первоисточник, причем задним числом? Да и для нового контента все крайне паршиво. Какие бы механизмы ни ввела ПС, не факт, что свободный творец будет о них знать и ими пользоваться. Единственный реальный способ - одномоментная и очень частая индексация всего содержимого сети Интернет. Увы, это совершенно не реально реализовать.
Ну, если вы такой умный, идите в отдел кадров Гугла или Яндекса и предложите им свой уникальный алгоритм отсева ГС. На форуме куча народа, который сможет дать оценку предложенным сайтам, прием оценки будут весьма точны, но вряд ли кто-то сможет выразить принципы этой оценки в машинном алгоритме. Специалисты поисковиков работают в этом направлении, прием так, что щепки летят во все стороны. Под фильтры попадают и сайты, где владельцы/продвиженцы неразборчивы в методах и сайты, которые совершенно ни в чем не замешаны. Вы думаете это так легко? Вот сейчас Гугл ввел Пингвина, который как бы режет за неположенную по мнению алгоритма ссылочную массу. Появились рекомендации по разбавлению ссылочного. Предположим, что рекомендации верны. Когда их применят к большинству продвигаемых сайтов, алгоритм опять окажется бесполезен или начнет рубить по новым критериям, не разбирая ни правых, ни виноватых. И так будет с любой попыткой автоматизации фильтрации. Компьютер пока еще невозможно научить со 100% вероятностью различать красивую картину от каракулей. Такова реальность.---------- Добавлено 21.08.2012 в 22:29 ----------
В принципе, вы правы. Я идеалист, т.к. от количества дерьма вокруг начинает тошнить. И проблема не в торговле ссылками, а в том, как это делается.
Разумеется, ни о какой куче речи не идет. На коне будет тот, кто найдет те самые альтернативные пути, которые вполне существуют.
Почему вы решили, что так не надо говорить?
Вот те, кто так набирает должны быть всего лишь бонусом, а не основой. Например, на одной конференции лично был свидетелем, как несколько немосквичей спрашивали у москвича рекомендации в какое такси позвонить. Компании, телефоны которых были в телефонной книге мобильника данного москвича в тот день получили еще несколько клиентов. Как и почему эти телефоны оказались в мобильнике, думайте сами.
А еще посмотрите на описанное вами с другой стороны. Чтобы продвинуться по этому запросу в Сети генерируется невообразимая куча откровенного дерьма в виде бесполезных страниц с ключевиками (то рерайт, что копирайт), сеток для продвижения, сайтов под ссылки, дорвеев и т.п. Когда я регистрировался на nic.ru, номер моего договора был в середине седьмой тысячи. Год назад регистрировал там одну общественную организацию. Номер договора перевалил за 1,2 млн. А сколько будет с учетом других регистраторов? О количестве зарегистрированных доменов и говорить страшно. И подавляющее большинство сайтов на этих доменах жуткое дерьмо для заработка или продвижения трафикового или SEO. Кто-то серьезно предполагал, то так будет продолжаться бесконечно? Вы посмотрите, как работал Вебархив раньше и как он работает сейчас. Уже и ПС начинают офигевать от потока бесполезного мусора. Вот и начали рубить, получив весьма идиотский результат. Качественные и информативные ресурсы улетели, а в топы вылезло то самое дерьмо, от которого следовало бы избавляться. Может быть когда ни будь и докрутят свои новые алгоритмы до нормального состояния, а вот то, что они откажутся от данного направления развития крайне сомнительно.
Вы не на моем месте и совершенно не располагаете сведениями о моих знаниях и навыках, а потому не надо мне указывать.
И кто виноват в том, что ставка сделана только на это, да еще в самом тупом виде, т.е. с переоптимизацией и продавливания ссылками? Давайте тогда пожалеем вылетевших дорвейщиков, отодвинутых от кормушки пильшиков госбабла и т.п. братию.
С этим полностью согласен. В топе фуфло, мошеннические сайты, доры и один-два сайта на множестве позиций. Как я уже сказал, я и сам пострадал от нововведений Гугла. Сайт по ВЧ сейчас плавает в пределах 500-ой страницы выдачи, а в топе полный отстой. Расстраиваться по этому поводу не собираюсь. Произвожу некоторые изменения, которые носят разумный характер или не критичны для меня и пользователей. Поможет - хорошо, не поможет - хрен с ним с Гуглом, будем дальше искать другие источники трафика. В любом случае, это совершенно не отменяет вышесказанного.
Похоже, мы о разном говорим. Я сайтостроитель "старой закалки" и для меня дики все эти манипуляции с 301 редиректом. Если бизнес настолько страдает из-за заморочек отдельной поисковой системы, а домен сайта стал непринципиальным, то явно пора что-то править в консерватории.
ИМХО, им нужно гнать поганой метлой своих маркетологов, а не маяться такой фигней. Ставить оффлайновый бизнес в зависимость от одной поисковой системы... Сколько существует фирм о прокату авто? Почему только эти чувствуют себя плохо?
ЗЫ: Это совершенно не значит, то я доволен нововведениями Гугла. Сам от них пострадал и от текущей выдачи выпадаю в осадок, но уход от этой проблемы 301 редиректом однозначно должен был иметь соответствующие последствия. Даже если Гугл не одумается, нужно стараться понижать свою зависимость от него.