- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Kost, Вы дали ссылку на мануал Яндекса.
Вот мануал Гугла
Команда Allow вовсе не отменяет последующих запрещений.
Для ТС надо так:
User-agent: *
Disallow: /papka/
Disallow: /papka1/
А если внутри запрещенных папок надо разрешить какие-то урлы, то использовать Allow.
P.S. Директива Kost для robots.txt
Сорри, не удержался. :)
Вот мануал Гугла
Если бы ТС хотел учиться, он прочитал бы не только мануал. А ему нужно было на блюдечке. Вот пусть и кушает то, что ему предложили выше под его ситуацию.
А если внутри запрещенных папок надо разрешить какие-то урлы, то
То он еще одну тему создаст ;)
Если бы ТС хотел учиться, он прочитал бы не только мануал. А ему нужно было на блюдечке.
Ну, я бы так не стал говорить... На самом деле, даже почитав сто раз мануал, там не получаешь ответов на все вопросы и возможные ситуации. Вот, например как исключить урлы, содержащие определенную последовательность символов, но разрешить урлы, содержащие те же символы + еще какой-то?
Например - исключить содержащие "tt=?"
Disallow: /*tt=? (в соответствии с мануалом)
А как при этом разрешить содержащие "qtt=?"? В мануале описано только, как исключить из запрещения урлы, имеющие определенное окончание, и все.
Поэтому ИМХО вполне нормально попробовать получить сторонние мнения.
Команда Allow вовсе не отменяет последующих запрещений.
Директива Allow вообще зло. Ибо итак "разрешено всё, что не запрещено".
Вообще в спецификации роботс.тхт её нет (не было во всяком случае раньше), и была введена Гуглём (по некоторым непроверенным слухам ;) )
не только мануал
Хочу подчеркнуть, что читал бы он НЕ ТОЛЬКО мануал. Так было сказано.
Директива Allow вообще зло. Ибо итак "разрешено всё, что не запрещено". (...) Директива Allow вообще зло
Полностью согласен.
В общем, даже само использование robots.txt не является безусловно необходимым и легко обходится на ранних стадиях строительства.
ЗЫ. Я, например, отсеиваю Google по User-Agent и ни разу еще не зажужжал от этого. Ничего не упало, ничего лишнего не появилось и т. п. И robots.txt нет ни на одном моем сайте.
легко обходится на ранних стадиях строительства.
Это правда, но далеко не всегда есть возможность участвовать в ранних стадиях строительства. Даже скорее наоборот - чаще получешь сайт с проблемами на уровне движка, и с ним выкручиваешься.
чаще получешь сайт с проблемами
Да, есть такой минус нашей работы.
А, в принципе, всем жаждущим желал бы найти такой всеобъемлющий сайт: intitle:"robots.txt bible". Чтобы там была Вики, примеры, обсуждения, и т. п. НИША СВОБОДНА! Два языка как минимум. Дарю!
Before that we have to pray our Lord and Savior Google to write this Bible.
No,
Вот так надо. А вы тут SEO! seo! Мета тэги рулез!
Ну, раз это работает, то предлагаю тогда создать плагин для Wordpress, вставляющий это все в каждую страницу. И продавать его. Рынок безграничен.