Блин, детский сад какой-то. Если все 10 тысяч пользователей форума начнуть писать сюда отчеты по скачкам позиций по каждому запросу каждого своего проекта, то будет несусветный бардак. Тему закрываю. Надоело.
oleksandrenko, весьма смелые прогнозы.
На мой взгляд, информация полученная от счетчиков будет использоваться, как вспомогательный фактор при ранжировании, точнее - как повод для наложения различных фильтров на учет основным факторов для сайтов с "подозрительной" посещаемостью. Т.е. играть примерно ту же роль, какую сейчас играет возраст домена.
Про прозрачные правила игры много копий сломали еще четыре года назад. Не вижу логики в Ваших рассуждениях - каким образом поиск, бесплатный для обычных пользователей, должен подразумевать прозрачные правила игры для владельцев сайтов? Если Вам, как владельцу сайта что-то не нравится - смело ставьте в robots.txt для юзер-агента Yandex строку Disallow: / - и никто никому ничего не должен. :)
Ну, нафлудили. Кстати, тоже тема немного интересует. Только, скорее, не непосредственно на новогодние, а сразу после них - денька на три двухкомнатная квартира или два двухместных номера в мини-гостинице. Какие по этому делу расклады? И как с погодой в это время в Питрере? Может, вообще не стоит соваться зимой? А то вдруг до середины моста редкие прохожие добегают. :)
Насчет закладочек. Есть интересная яхувская работа Link Spam Detection Based on Mass Estimation, идея которой состоит в том, чтобы автоматически опеределять "хорошие" и "плохие" документы на основые ссылок между ними, а точнее, на основе количества "привнесенного" ПейджРанка. Так вот, для этого надо сначала ручками определить заведомо хорошие и заведомо плохие узлы, а потом пускать алгоритм для автоматического определения всех остальных. Отсюда разработчики, просматривающие урлы для составления первоначальной базы хороших и плохих документов - вещь не такая уж и нереальная.
Да не за что
Интересно, почему? Автоматические запросы же производятся. Вы уверены, что они не вычислятся поисковиками?
Этот файл содержит директивы для всех роботов, т.е. автоматических программ. И запрещают они не индексацию, а обращение к документу. Невежливых роботов, не соблюдающих директивы, обычно банят при обнаружении.
Кстати, как идут запросы в поисковики? Ведь парсить выдачу - значит нарушать их robots.txt.
_eXtreme_, очень неплохой сервис. Быстрый и наглядный. Главное, чтоб справлялся с нагрузкой в пиковые моменты. :)
Я бы порекомендовал еще добавить go.mail.ru
Ой, прямо умиляюсь, когда представляю картину: "бабушка" Диана шлет "дедушке" Мише по электронной почте фотки новорожденных вислоухих "внучат". :D