wolf

wolf
Рейтинг
1183
Регистрация
13.03.2001
Должность
интернет-маркетинг, SEO

Блин, детский сад какой-то. Если все 10 тысяч пользователей форума начнуть писать сюда отчеты по скачкам позиций по каждому запросу каждого своего проекта, то будет несусветный бардак. Тему закрываю. Надоело.

oleksandrenko, весьма смелые прогнозы.

На мой взгляд, информация полученная от счетчиков будет использоваться, как вспомогательный фактор при ранжировании, точнее - как повод для наложения различных фильтров на учет основным факторов для сайтов с "подозрительной" посещаемостью. Т.е. играть примерно ту же роль, какую сейчас играет возраст домена.

bvp500:
Я же всё это время пытаюсь объяснить, что если поиск бесплатный, то должны быть четкие прозрачные правила игры. Пока эта сторона игры в тени т.е нет доступной информации, какие сайты имеют бан, за что. То о чем можно говорить.

Про прозрачные правила игры много копий сломали еще четыре года назад. Не вижу логики в Ваших рассуждениях - каким образом поиск, бесплатный для обычных пользователей, должен подразумевать прозрачные правила игры для владельцев сайтов? Если Вам, как владельцу сайта что-то не нравится - смело ставьте в robots.txt для юзер-агента Yandex строку Disallow: / - и никто никому ничего не должен. :)

Ну, нафлудили. Кстати, тоже тема немного интересует. Только, скорее, не непосредственно на новогодние, а сразу после них - денька на три двухкомнатная квартира или два двухместных номера в мини-гостинице. Какие по этому делу расклады? И как с погодой в это время в Питрере? Может, вообще не стоит соваться зимой? А то вдруг до середины моста редкие прохожие добегают. :)

jED R.:
но вообще интересный антиспам-метод, сидит так ведущий разработчик, просматривает урлы и в закладочки ставит

Насчет закладочек. Есть интересная яхувская работа Link Spam Detection Based on Mass Estimation, идея которой состоит в том, чтобы автоматически опеределять "хорошие" и "плохие" документы на основые ссылок между ними, а точнее, на основе количества "привнесенного" ПейджРанка. Так вот, для этого надо сначала ручками определить заведомо хорошие и заведомо плохие узлы, а потом пускать алгоритм для автоматического определения всех остальных. Отсюда разработчики, просматривающие урлы для составления первоначальной базы хороших и плохих документов - вещь не такая уж и нереальная.

Спасибо, просветил

Да не за что

На данном этапе эта проблемма не актуальна.

Интересно, почему? Автоматические запросы же производятся. Вы уверены, что они не вычислятся поисковиками?

Не совсем понял, что значит нарушать robots.txt Этот файл просто содержит директивы для поисковиков. Что можно индексировать, а что нет.

Этот файл содержит директивы для всех роботов, т.е. автоматических программ. И запрещают они не индексацию, а обращение к документу. Невежливых роботов, не соблюдающих директивы, обычно банят при обнаружении.

Кстати, как идут запросы в поисковики? Ведь парсить выдачу - значит нарушать их robots.txt.

_eXtreme_, очень неплохой сервис. Быстрый и наглядный. Главное, чтоб справлялся с нагрузкой в пиковые моменты. :)

Я бы порекомендовал еще добавить go.mail.ru

А вот Арчика попрошу не обижать Может я к нему свою деффку сватать буду )

Ой, прямо умиляюсь, когда представляю картину: "бабушка" Диана шлет "дедушке" Мише по электронной почте фотки новорожденных вислоухих "внучат". :D

Всего: 24501