Штирлиц - не показатель. Я понедосмотру клиенту список ключевых слов в cp866 отослал - они так и не смогли Штирлицем этот список расшифровать.
Скажу посекрету - в одном дистрибутиве все продукты утрамбованы :)
Это смотря как просить. Вежливее не пробовал? :)
Влад, это я к тому, что bk_man назвал робот Рамблера "беднягой" просто неподумав, каким образом робот может узнать о наличии/отсутствии этого метатэга не скачивая страницу, и какой вой в рунете поднимется, если робот Рамблера будет скачивать подобные страницы ровно один раз :).
Но раз "пошла такая пьянка", то не могли бы Вы удовлетворить моё любопытство, ответив на вопрос: как часто робот Рамблера заглядывает в robots.txt? Многие (импортные в основном) роботы один раз туда заглянут, а потом скачивают страницы пачками. И потом менять robots.txt бесполезно - даже возврат 404/403 не спасает - роботы тупо продолжают молотить вилами по воде, пытаясь куда-то приплыть и изрядно пачкая логи, - пока список URL не пройдут (да и не по одному разу!) в robots.txt больше не заглядывают :(
Влад, а Вы умеете извлекать метатеги не закачивая страницу? :)
BTW, Гугль * понимает
Вообще-то эти тэги запретительные, а не разрешительные.
Гугль в факу для вебмастеров даёт ссылку на w3c, где говорится, что допустимые значения для content этого метатэга только ALL, INDEX, NOFOLLOW, NOINDEX. Т.е. не исключено, что "index,follow" он просто не поймет. В любом случае, ALL равносилен отсутствию данного метатэга.
А покажите мне хоть один поисковик, который не игнорирует данный тэг? :)
BTW for All:
оказывается Гугль понимает расширенный вариант robots.txt, т.е. можно использовать wildcard *.
Например, для запрета индексации динамики Гуглем можно использовать следующую запись в robots.txt:
User-agent: Googlebot Disallow: /*?
Интересно, а наша троица когда дойдёт до такой жизни?
Это что-то новенькое. Нельзя ли подробнее?
Тоже не специалист, но, как показывает практика многих "громких" дел, у нас решение одного суда можно опротестовать в другом суде, кроме того, не понятно с какого перепуга автор решил что форум закроют? ИМХО, максимум что грозит владельцам - это опровержение в том же топике, да и ещё при условии, что этот форум будет признан СМИ.
Даже если и придётся заплатить штраф, то PR для русурса будет весьма неплохой, не зависимо от того, в чью пользу суд вынесет вердикт.
Будет :). Если не брать информацию, напрямую связанную с поиском, то в первую очередь я просматриваю всех новых рефереров, для отслеживания корректности "заимствования" материалов. Бывает и так, что переходы есть, а ссылки нет. Спасибо багам в браузерах :).
Далее - анализ путей по сайту. Входы, выходы, наиболее популярные страницы, related topics и т.д.
А за какой период ты логи анализируешь? Мне для качественного анализа месячного лога дня три требуется (не по 8-мь часов есс-но). :)
А смотреть что было 3 месяца назад тоже особо большой нужды не вижу :(.