Maxime

Рейтинг
65
Регистрация
29.03.2003
BigBrother:
Я правильно понял, что Disallow: /templates вы добавили именно между 14-м и 16-м?

Нет, 18-го.

BigBrother:
Максим, жду ответа на свой вопрос - что было в robots.txt до 15-16 Сентября? И что поменяли?

Было абсолютно всё тоже самое, за исключением строчки

Disallow: /templates

она была добавлена перед тем, как сообщить Яндексу о необходимости удалить эту директорию, а сегодня эту строчку заменил на

Disallow: /temp

для бота * (секции для бота Яндекса нет, для него должна действовать общая секция).

K. Ermakov:
Дело всё в том, что, когда я просил его сделать то же самое, всё было ок. Тут варианта два: либо вчера с 20 до 21 кто-то с Яндекса усиленно читал форум и быстро поправил имевшийся глюк, либо что-то было с Вашим robots.txt (вариантов того, что могло быть, на самом деле, не так мало), что Вы поправили, и Яндекс смог его интерпретировать так, как нужно было Вам.

Ну начнём с того, что кто-то из Яндекса не только усиленно читает, но и усиленно владеет этим форумом :]

Во вторых, продолжаем эксперимент, коли вы готовы выгораживать Яндекс, обвиняя меня: меняем

Disallow: /templates

на

Disallow: /temp

Получаем: директорию /templates готов удалять, директорию /templates/ - отказывается. Проверял ровно пару минут назад. Хотя обе по стандарту подпадают под указаный шаблон.

aspnet:

ЗЫ: а что если яндекс воспользуется заповедью "не судите, да несудимы будете" :)

Наверное перестанет банить сайты без решения суда, совсем :D

K. Ermakov:

И что не так? :)

Его попросили удалить весь подкаталог, запрещеный в robots.txt - он отказался, не по стандарту проиндепретировав robots.txt

Поисковик ?! Скорее большой и развесистый дорвей...

Pike:
Ну, во-пкрвых, я не зря сказал про Австралию и Новую Зеландию, а не про США, Великобританию и Канаду. Здесь дорвеев и прочего поискового спама почти нет - домены дорогие, траффик доргой, рынок маленький. Если ориентироваться на местный рынок, то какая-нибудь Алтависта -99 здесь до сих пор давала бы релевантные результаты.

Ой зря ты про Австралию :) У Гугла там R&D центр в Сиднее, занимаются развитием технологии Google Maps (собственно Keyhole именно оттуда). На днях объявили о начале программы геокодирования Австралии и Новой Зеландии (т.е. через какое-то время карифанится с местными владельцами бизнес-листингов особого смысла уже не будет :). Местные проекты: websearch.com.au - полудохлый, ansearch.com.au вроде живой, и честно забирает все "лавры" чисто австралийского бизнеса. Очевидно, что Я и Р там уже в пролёте по всем категориям, где хоть как-то пахнет деньгами. Ну а только на бесплатные сервисы хостинга, почты и открыток им не интересно, не филантропы чай :)

Технология Looksmart (вручную соcтавляемых листингов) безнадёжно устарела, и никого особо не интересует, дураков в эту нишу нет :D

Leom:
Ну реально не 5 а 2,5 в секунду это реально где-то 8 гиг в час. Но тут надо учитывать что ряд серверов уже отдает в сжатом виде и после записи htm в базу это уже будет где-то 14 гиг в час. Далее умножаем 20 (с погрешностями) на 14 и получаем около 300 гиг

Т.е. речь идёт о простом выкачивании документов из Сети и записи их в базу в сажтом виде, и никакого разбиения на слова и построения обратного индекса на этом этапе не происходит ?

Bor-ka:
оффтоп:
баян, сто раз обсуждалось. постройте систему на уровне Яндекса, а потом обвиняйте Яндех в нехватке памяти.

Уже постоены и покруче, - ни Гугл, ни Яху от таких запросов и не чихают...

Всего: 237