AiK

AiK
Рейтинг
257
Регистрация
27.10.2000
Должность
SEO consultant
Интересы
Astronomy
Штирлиц, правда, тоже не все перекодировал

Штирлиц - не показатель. Я понедосмотру клиенту список ключевых слов в cp866 отослал - они так и не смогли Штирлицем этот список расшифровать.

Так LogAnalyzer 7.0 вроде именуется как Analysis Series...

Скажу посекрету - в одном дистрибутиве все продукты утрамбованы :)

и не выдает более 1000 результатов.

Это смотря как просить. Вежливее не пробовал? :)

Влад, это я к тому, что bk_man назвал робот Рамблера "беднягой" просто неподумав, каким образом робот может узнать о наличии/отсутствии этого метатэга не скачивая страницу, и какой вой в рунете поднимется, если робот Рамблера будет скачивать подобные страницы ровно один раз :).

Но раз "пошла такая пьянка", то не могли бы Вы удовлетворить моё любопытство, ответив на вопрос: как часто робот Рамблера заглядывает в robots.txt? Многие (импортные в основном) роботы один раз туда заглянут, а потом скачивают страницы пачками. И потом менять robots.txt бесполезно - даже возврат 404/403 не спасает - роботы тупо продолжают молотить вилами по воде, пытаясь куда-то приплыть и изрядно пачкая логи, - пока список URL не пройдут (да и не по одному разу!) в robots.txt больше не заглядывают :(

NOINDEX означает, что страницу не надо класть в индекс. А скачивать ее и извлекать из нее ссылки - не запрещает

Влад, а Вы умеете извлекать метатеги не закачивая страницу? :)

AFAIK robots.txt не позволяет запретить индексацию URL'ов по regex'у.

BTW, Гугль * понимает

Мне показалось, что гугл всё таки реагирует на эти тэги и если ненаходит follow то дальше и не особо охотно идёт...

Вообще-то эти тэги запретительные, а не разрешительные.

Гугль в факу для вебмастеров даёт ссылку на w3c, где говорится, что допустимые значения для content этого метатэга только ALL, INDEX, NOFOLLOW, NOINDEX. Т.е. не исключено, что "index,follow" он просто не поймет. В любом случае, ALL равносилен отсутствию данного метатэга.

revisit-after гугл тоже игнорит

А покажите мне хоть один поисковик, который не игнорирует данный тэг? :)

BTW for All:

оказывается Гугль понимает расширенный вариант robots.txt, т.е. можно использовать wildcard *.

Например, для запрета индексации динамики Гуглем можно использовать следующую запись в robots.txt:


User-agent: Googlebot
Disallow: /*?

Интересно, а наша троица когда дойдёт до такой жизни?

<META name="robots" Content="index,follow">
если нет то может и никогда не взять
- если на ссылающемся сайте нет фоллоу, то и не дойдёт

Это что-то новенькое. Нельзя ли подробнее?

Правда, я не специалист по праву

Тоже не специалист, но, как показывает практика многих "громких" дел, у нас решение одного суда можно опротестовать в другом суде, кроме того, не понятно с какого перепуга автор решил что форум закроют? ИМХО, максимум что грозит владельцам - это опровержение в том же топике, да и ещё при условии, что этот форум будет признан СМИ.

Даже если и придётся заплатить штраф, то PR для русурса будет весьма неплохой, не зависимо от того, в чью пользу суд вынесет вердикт.

Не будет ли столь любезен, уважаемый, что поделится тем, какую именно информацию он обычно вытягивает из логов.

Будет :). Если не брать информацию, напрямую связанную с поиском, то в первую очередь я просматриваю всех новых рефереров, для отслеживания корректности "заимствования" материалов. Бывает и так, что переходы есть, а ссылки нет. Спасибо багам в браузерах :).

Далее - анализ путей по сайту. Входы, выходы, наиболее популярные страницы, related topics и т.д.

Так в логах-то записи есть всё равно старые

А за какой период ты логи анализируешь? Мне для качественного анализа месячного лога дня три требуется (не по 8-мь часов есс-но). :)

А смотреть что было 3 месяца назад тоже особо большой нужды не вижу :(.

Всего: 3256