- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На сайте есть страница ххх.ru/tags/ где собираются все ключевые теги (в виде ссылок). Этих тегов огромное колличество. Яндекс.вебмастер пишет, что на этой странице Слишком много ссылок, значит он ее не индексирует. Можно ли оставить эту страницу в таком виде или нужно попытаться ее заноиндексить? Как к этой странице отнесуться другие поисковики?
Теги необходимы для навигации. В каждой новости отображается часть тегов (3-4 иногда больше), что упрощает поиск похожих новостей.
Я бы вообще эту страницу закрыл от индексации всеми поисковиками.
Потому что за такое и санкции схлопотать можно.
Такую страницу могут идентифицировать как поисковый спам, особенно по стуку. И не важно что вы делаете это для удобства именно людей.
Ограничьте количество тегов на странице, либо попробуйте их сгруппировать.
в robots.txt нужно так прописать?
Disallow: /tags/
В том случае не закроются страницы вида ххх.ru/tags/NBA/ ?
querty добавил 23.06.2009 в 10:17
Ограничьте количество тегов на странице, либо попробуйте их сгруппировать.
Сайт на DLE. На сколько я знаю - это не возможно стандартными методами.
Теги необходимы для навигации.
Вот и закройте их в роботсе, как ниже предложили.
В том случае не закроются страницы вида ххх.ru/tags/NBA/ ?
А они Вам нужны в индексе-то? Изучите подстановочный символ $ в конце параметра директивы Disallow.
А они Вам нужны в индексе-то? Изучите подстановочный символ $ в конце параметра директивы Disallow.
Спс. Думаю, нужны.
Читал инструкцию Rambler по robots.txt, там ничего не сказано про $. Этот операнд все поисковики понимают?
querty, изучите Яшину. И это не операнд. ;)
...И на кой ляд они нужны? Людям точно нет.
P.S. http://robotstxt.org.ru/
Яшин и гугловский прочитал. Написал так
Disallow: /tags/$
Страницы релевантные для поиска получаютя. Жалко из индекса выбрасывать.