Ombudsman

Рейтинг
9
Регистрация
01.04.2005
Seventh Son:
Прочитайте мой первый пост в этой теме, а потом подумайте.
Хотя можно и наоборот.

имхо необдуманный риск иногда щедро вознаграждается 🚬

Просмотрите еще раз мой пост с кодом, там позже вносились правки. ;)

antono:
Это говорит роботу что он уже все проиндексировал и ему тут делать нечего :)

Моя версия такая, инфа у него устарела сразу после индекса.🚬

Seventh Son:
В Яндексе? ;)

Глянь и исправил конструкцию.

Именно в Я работает на ура🚬

У меня лично на одном из сайтов работает такая конструкция

<meta content="-1" http-equiv="Expires">
🚬
Avega:
а Вы не пробовали к вебмастеру сайта обратится? Если не отвечает ищите тут: hotscripts.com там подобного много но в большинстве своем за деньги.

Я уже вчера вечером написал админу письмо, с вопросом о Галерее для Freem, обещали ответить в течении 2 часов, уже прошло 18 пока ответа не последовало, ждемс.

Logistic:
В какую очередь? Очередь ЗА ЧЕМ??? (если можно, поподробнее)

Это образное выражение. За таким себе "ИЦ СЕОшника", раскручивать себя как специалиста, ну хотя бы за этим в очередь, а что не повод?

Извиняюсь за свой комент на вопрос что дальше,

В недалеком будущем глобализация всех разрозненных сайтов в один или несколько информационных ресурса и процессов иже с ними, останутся только сайты-визитки и то в одном интернет-каталоге-визитнице.

Так что теперь нужно больше прятаться со своими технологиями продвижения, и не обсуждать их вовсе на форуме, а потом со своими достижениями выстроится в очередь соскателей работы, в надежде получить на обслугу кластер от большого пирога.

Выходит вот такая конструкция:

User-Agent: StackRambler

Disallow: /403.shtml
Disallow: /404.shtml
Disallow: /500.shtml
Disallow: /cgi-bin/

User-agent: Yandex # секция для Яндекса если всеж нужно указать основное зеркало
Disallow: /403.shtml
Disallow: /404.shtml
Disallow: /500.shtml
Host: ww.site.ru

User-Agent: *
Disallow: /403.shtml
Disallow: /404.shtml
Disallow: /500.shtml

И всеж, хоть я и не прав был с отдельными файлами, мне лично такая конструкция не нравится, я бы вынес в отдельную директорию.

Freem:
Дамы и господа!
Неужели никому не попадалось ничего подобного?
З.Ы. мне кажется что тему неправильно назвал - все думают про каталог ссылок...

Есть на нашем форуме такой подфорум Каталоги сайта там много чо есть, может ответ найдешь там, удачи.

vvp:
Нужно закрыть на индексацию файлы 403.shtml 404.shtml 500.shtml для всех поисковиков, а для бота рамблера закрыть папку /cgi-bin/ и 403.shtml 404.shtml 500.shtml
Правильно ли написать в robots.txt следующее:


Disallow: /403.shtml
Disallow: /404.shtml
Disallow: /500.shtml
Host: www.site.ru

User-agent: StackRambler

Спецификация не предусматривает закрытие конкретных файлов, а только директорий. Поэтому предлагаю создать онную, типа ErrorDocument и туда забросить все страницы ошибок, в этом случае роботс выглядит так:

User-agent: StackRambler

Disallow: /cgi-bin
Disallow: /ErrorDocument
Host: ww.site.ru

User-Agent: *
Disallow: /ErrorDocument
123 4
Всего: 36