Vyacheslav Tikhonov

Рейтинг
130
Регистрация
27.01.2001
Должность
Developer
Интересы
search engines, bots, information retrieval, data mining
Master's Degree in Computer Science
ладно приведу пример :
была гостивуха куда мы спамили с пиаром 7 - это было года 2 назад
туда бот приходил несколько раз в сутки - по кешу отслеживали

По-моему, мы говорим о разных вещах. Да, новостные сайты и блоги обрабатываются ботом регулярно, бывает и чаще, чем раз в час. Как я и говорил, для новостных ресурсов с PR8 это время обхода может вообще составлять 1-5 минут.

На появление же страниц в результатах поиска уходит как минимум день.

новостные сайты давно уже стоят под пристальным вниманием армиии ботов - будь уверен

Собственно, ты невнимательно читал мою статью и не так понял выводы. :) Новостные сайты и блоги могут появляться в выдаче почти мгновенно после публикации, однако они втягиваются специализированными ботами через RSS. При этом учитывается социальная структура интернета.

greenwood:
опять вывод неверный :)
не буду вдаваться в подробности - скажу простыми словами :
если ты будешь каждый день в течении полугода писать новости о кондиционерах - будь уверен .. в выдачу быдешь вылетать с новым кешем раз в час

greenwood, раз в час точно не будет, сейчас реальный срок для ресурсов, имеющих PR8 - через день. Инкрементивное обновление сайта влияет на работу робота, обслуживающего основную выдачу, но на результаты поиска до какого-то момента, чтобы ты на сайте не писал.

С другой стороны, раз в час можно туда попасть через Blog Search или Google News, о чем я и написал. Но эффект обычно недолгий - те же один-два дня, потом страница слетает.

это тебе не грозит
а ты попробуй опубликовать что нить свежее и новое и не один раз и увидишь как по ссылкам на тебя боты начнут с твоего сайта траф жрать - мало не покажется

Понятно, что даже одна, но очень качественная ссылка вызывает приход множества роботов. Но выдача вещь инерционная, поэтому обычно необходимо минимум один-два дня (в Google), чтобы ссылка всплыла в поиске.

Я же в статье говорю о новостных страницах, которые обычным образом не могут оказаться в top'е выдачи.

goodkat:
Интересен такой вопрос. Есть сайты на разных языках.
Как Гугл определяет, что сайт именно на русском или английском?
Если сайт определён как англоязычный, но на нём присутствует русский контент, сможет ли он занимать какие-либо высокие позиции в русском Гугле?

Может, даже если русского контента на сайте нет ни слова. Все зависит от языка обратных ссылок.

greenwood:
в статье неверно сделаны выводы - беки у топовых не проанализированы

Не согласен. Беки, если и влияют на поиск по блогам и новостям, то опосредованно.

Но вообще если событие произошло сегодня или вчера, то беки не успеют пересчитаться.

SEvO:
ИМХО из пустого в порожнее

Мотивируйте. Если переходить к практике, пользуясь этим алгоритмом, можно за два дня поставить сайт с PR=0 в top по конкурентному запросу среди 50-100 млн. документов.

Потом новость забанили. Но аудитория, как мне кажется, там ерундовая. Для развлекательного сайта пойдет.

Аудитория в digg как раз вполне нормальная - если информация действительно вызывает интерес, они еще и ссылки на вас сами поставят.

Что касается использования дигга для оптимизации, то эта пластинка недолгоиграющая, так как пользователей там очень много и страницы постоянно меняются.

На самом деле может кто нибудь больше знает насчет этого фильтра -30?

На последнем PubCon поднимался этот вопрос, но никто из 25 присутствующих гугловцев слова не сказал. Мэтт Каттс ответил, что это секретная информация, которой гугл не намерен делиться, поэтому официальная позиция компании - никаких комментариев.

Хотя судя по характеру фильтра "-30" больше всего похоже на предупреждение, желтую карточку. Если владелец сайта будет продолжать в том же духе, его детище быстро будет засыпано песком.

И "по приколу", поскольку иногда попадался юморной народ, который пытался на деле применить с диггом то, что я рассказывал. Вроде статьи "Восхитительный Нано-Марио пишет DMCA в RIAA", которая с ходу получила около 50 диггов и даже попала на некоторое время на первую страницу (пока модераторы не зашевелились).

На самом деле digg уже давно разделен на группировки пользователей, иногда враждующих между собой. Нейтральному человеку можно попасть в top, однако при условии, что не были затронуты ничьи интересы.

Вот на днях там Джона Чоу забанили - кому-то не понравился его авторитет.

Вообще социальный букмакинг вещь сама по себе очень известная и широко используется западными оптимизаторами, поэтому Америку здесь никто не открыл.

Другое дело, что после этого топика в наиболее популярные социальные сети наши умельцы-дорвейщики могут по привычке залить тонны мусора, но смею разочаровать всех желающих - вам это ничего не даст, кроме кнопки bury и бана.

Помните, что кому-то придется все это читать, поэтому статья продержится до первого пользователя, а потом будет отправлена по назначению.

P.S. Топикстартеру я бы посоветовал все-таки нанять переводчика, ибо английский контент выглядит просто кошмарно и плохо читается - написано по-русски английскими словами. Хотя, возможно, они из-за этого и голосуют - просто по приколу.

Всего: 847