- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Использую imagecms
Настраиваю robots.txt
Делаю так:
Вот на эти категории ставлю запрет:
Вопрос, страница в этих запрещённых категориях проиндексируются?
например: http://mysite.ru/article/page-1 ?
И ещё, в категории http://mysite.ru/article когда более 15 станиц, вот такие url попадают в поиск:
http://mysite.ru/article/35
Для них нужно отдельно прописывать: Disallow: /article/35 и т.д. ?
Может есть какой то решения для автоматизации?
А rel="canonical" ? как это использовать, и вообще есть ли смысл...
---------- Добавлено 14.02.2016 в 10:52 ----------
Блин.. есть целая тема по роботс... не увидел... извиняюсь.. но вопросы актуальны.
Вопрос, страница в этих запрещённых категориях проиндексируются?
Да, в вашем случае закрыты от индексации только конкретные страницы.
Исключить вложенные страницы можно, например, так же как вы сделали с адресом: Disallow: /captcha*.
rel="canonical" есть смысл использовать для одинаковых страниц, которые доступны по разным адресам, чтобы исключить дубли.
Если пользуетесь я.вебмастером, проверить обработку правил роботс можно здесь: https://webmaster.yandex.ru/site/robots.xml
Вопрос, страница в этих запрещённых категориях проиндексируются?
Да, в вашем случае закрыты от индексации только конкретные страницы.
Исключить вложенные страницы можно, например, так же как вы сделали с адресом: Disallow: /captcha*.
rel="canonical" есть смысл использовать для одинаковых страниц, которые доступны по разным адресам, чтобы исключить дубли.
Если пользуетесь я.вебмастером, проверить обработку правил роботс можно здесь: https://webmaster.yandex.ru/site/robots.xml
Спасибо, легче стало))
---------- Добавлено 14.02.2016 в 11:32 ----------
Какой то косяк выходит, создаю карту сайта в .xml он не визит ни закрытые категории, ни вложенные страницы.
Выходит что не проиндексируются... Как быть?
Проблему решил, проблемы не было как таковой, это я ....
разработчики двига позаботились изначально.