- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Уважаемые, можно так делать?
Всем роботам запрещаю каталог /engine/, sitemap для всех роботов.
Хост только для Яндекса, так как по-моему это нужно только для них.
Гуглу запрещаю каталог /engine/, но разрешаю скрипты, картинки и стили.
Верно? Disallow: /engine/ необязательно дублировать?
Robots.txt используют для того что бы блокировать а не разрешать. Как по мне команда Allow бред
Так вот вопрос тогда, если дать доступ к js, то как теперь закрывать внешние ссылки?
Или придерживаться стандартных рекомендаций nofollow?
По всей видимости гугл интересует мобильная версия сайта отсюда и предупреждения, ведь многие знают фокус с css, когда не имея мобильной версии сайт проходил проверку гугла, как "отлично оптимизирован под мобильные устройства". Только теперь придётся от такого отказаться и открыть папки css и templates.
Открываем всё для гугла и закрываем от всех остальных.
Хорошая инструкция как устранить данную проблему:
http://seoprofy.ua/blog/optimizaciya-sajtov/googlebot-css-js.
Сделал как написано тут Норм расписано.
User-Agent: Googlebot
Allow: /*.js
Allow: /*.css
И все дела.
Robots.txt используют для того что бы блокировать а не разрешать. Как по мне команда Allow бред
А если у Вас раздел на сайте (папка) в котором ещё штук 10 подразделов из которых нужно закрыть 9 и один открыть. Как будете закрывать?
Я бы сделал так:
Disallow: /content
Allow: /content/1
Если бы не было команды Allow
пришлось бы делать
Disallow: /content/2
Disallow: /content/3
Disallow: /content/4
Disallow: /content/5
и т.д.
Или есть ещё варианты? Наверное можно регуляркой указать, но в зависимости от кол-ва подпапок и их названий мне кажется это будет более проблематично.
User-Agent: Googlebot
Allow: /*.js
Allow: /*.css
И все дела.
Проблема целиком не решилась. Все равно предлагает исправить ошибки на сторонних сайтах..
Проблема целиком не решилась. Все равно предлагает исправить ошибки на сторонних сайтах..
Это находится уже на внешних сайтах ведь. Речь ведь идет что бот не может прочесть файлы на нашем сайте.
Тем более эти директивы - рекомендация от специалистов из Google (с небольшой правкой, иначе Яндекс начинал ругаться при проверке роботса).