- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет, подскажите пожалуйста как быть в ситуации:
- 80% сайта состоит из типовых, шаблонных страниц
- каждая страница имеет два URL - длинный и, для удобства, короткий (примерно как на ютубе), которые ссылаются на одну и ту же страницу
Возможно ли грамотно и корректно закрыть от индексации все короткие URL не перебирая все страницы? Или это нужно реализовывать на уровне движка?
Заранее спасибо
PS Заранее извиняюсь если тема не соответствует разделу - в таком случае прошу администраторов перенести в соответствующий раздел
Вариант 1. Закрыть короткие адреса от индексации через robots.txt, если это возможно.
Если покажите как выглядят длинные и короткие URL, подскажу, можно ли их закрыть в robots.txt и как это сделать.
Подробнее о robots.txt: http://help.yandex.ru/webmaster/?id=996567
Вариант 2. Воспользоваться rel="canonical" для склейки страниц дубликатов.
Для этого нужно выводить в html-коде страницы в теге <head> мета-тег <link rel="canonical" href="http://домен.зона/long-url"/>
Вместо http://домен.зона/long-url должен выводиться длинный URL соотвутствующей страницы.
Если данный тег по умолчанию не выводится, то придется настраивать/дописывать его вывод в движке.
Подробнее о rel="canonical": http://help.yandex.ru/webmaster/?id=1127756#canonical
Вариант 1. Закрыть короткие адреса от индексации через robots.txt, если это возможно.
Если покажите как выглядят длинные и короткие URL, подскажу, можно ли их закрыть в robots.txt и как это сделать.
Подробнее о robots.txt: http://help.yandex.ru/webmaster/?id=996567
Вариант 2. Воспользоваться rel="canonical" для склейки страниц дубликатов.
Для этого нужно выводить в html-коде страницы в теге <head> мета-тег <link rel="canonical" href="http://домен.зона/long-url"/>
Вместо http://домен.зона/long-url должен выводиться длинный URL соотвутствующей страницы.
Если данный тег по умолчанию не выводится, то придется настраивать/дописывать его вывод в движке.
Подробнее о rel="canonical": http://help.yandex.ru/webmaster/?id=1127756#canonical
Большое спасибо за ответ, ссылки выглядят следующим образом:
1) длинная : http://домен.зона/dir1/dir2/dir3/dir4/long_url
2) короткая : http://домен.зона/1087/
количество вложений (dir) для длинной ссылки не ограничено, но на практике максимальный уровень вложенности 4
С уважением.
Easyrider, второй вариант выбирайте.