- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если сразу будет в мета тегах каша:
<meta name="robots" content="index,follow" />
<meta name="robots" content="noindex,follow" />
т.е. сначало разрешаем одним тегом, другим запрещаем.
будет такая страница индексироваться?
Не будет.
1) Вторая директива может "перебивать" первую.
2) Если директивы противоречат друг другу, поисковый бот может предпочесть страницу вообще не трогать. Например, недавно где-то читал, что если поисковый бот знает, что на сайте есть robots.txt, но получить к нему доступ не может, он предпочитает за лучшее не рисковать и не индексировать сайт.
с роботсом наоборот (для гугла во всяком случае точно), если там нарушен синтаксис и т.п. то поисковик (гугл) вообще забивает на роботс и индексирует все подряд.
будет такая страница индексироваться?
Будет индексироваться:
http://help.yandex.ru/webmaster/?id=1127756
с роботсом наоборот (для гугла во всяком случае точно), если там нарушен синтаксис и т.п. то поисковик (гугл) вообще забивает на роботс и индексирует все подряд.
Все верно, если синтаксис нарушен - в файле ошибка => инструкции ошибочны => можно их не учитывать - забиваем на роботс.
Я где то читал у яндекса, что в "спорных" случаях по умолчанию принимается положительное значение. Поэтому скорее всего запрета не будет.
он предпочитает за лучшее не рисковать и не индексировать сайт
Это не так.
Сами подумайте- одна ошибка в роботсе и сайт на всегда уходит из индекса?