- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
хочу эксперимент сделать. Закрыть страницу в роботсе. Но открыть для индексации метатэгом ноиндекс. У кого будет приоритет?)
Если Robots.txt запрещает индексацию URL, но мета-тег позволяет это, то страница будет заблокирована в файле robots.txt, мета-тег никогда не увидят боты таким образом будут игнорироваться.
Насколько я знаю, содержимое роботс носит рекомендательный характер, а метатег имеет как раз прямое указание.
Поэтому я ставлю на то, что страница будет проиндексирована, если в роботс запрещена, а в мета открыта.
Надеюсь, отпишите, что получилось)
Для гугла точно в приоритете будет robots, тут даже и проверять не надо. Яндекс как всегда на своей волне, но скорей всего смысл будет таким же. Да и зачем такие эксперименты?
Да и зачем такие эксперименты?
есть у меня частичные дубли. Одни от фильтрации товаров. Другие от других посадочных страниц. Я запретил все фильтры с гет-параметрами ?sort от индексации. Дублей нет. Но я планирую расширить СЯ и хочу увеличить траффик по НЧ. Для этого хочу задействовать фильтры товаров, но если я их открою для индексации - опять появятся дубли. А я не хочу все подряд задействовать фильтры! Я хочу выборочно!! Вот и мучаюсь - незнаю как проблему решить
а метатег имеет как раз прямое указание.
Что значит прямое указание? Прямое это когда роботу 403 отдается :)
У кого будет приоритет?)
robots.txt
хочу эксперимент сделать. Закрыть страницу в роботсе. Но открыть для индексации метатэгом ноиндекс. У кого будет приоритет?)
стесняюсь спросить- как открыть для индексации метатегом noindex ???? Я его всегда считал метатегом, который дает рекомендацию не индексировать материал, оббернутый в него...
Если Robots.txt запрещает индексацию URL, но мета-тег позволяет это, то страница будет заблокирована в файле robots.txt, мета-тег никогда не увидят боты таким образом будут игнорироваться.
вы бы назвали нам этот чудо метатег-который разрешает индексацию- вдруг я что-то пропустил...🙄
стесняюсь спросить- как открыть для индексации метатегом noindex ???? Я его всегда считал метатегом, который дает рекомендацию не индексировать материал, оббернутый в него...
вы бы назвали нам этот чудо метатег-который разрешает индексацию- вдруг я что-то пропустил...🙄
Типа этот?
<meta name="robots" content="follow, index" /> - Разрешить поисковым машинам индексировать эту страницу
Типа этот?
<meta name="robots" content="follow, index" /> - Разрешить поисковым машинам индексировать эту страницу
я про noindex спрашивал :) , если честно конструкцию
<meta name="robots" content="all" />
я никогда не понимал :) это что то из разряда Капитана Очевидности