- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую.
Вопрос у меня наверное банальный, но тем не менее, лучше спрошу.
Есть большой сайт, на нем много страниц, и есть порядка 100-130 страниц, которые нужно запретить к индексации всеми роботами.
Не подавится ли яндекс от такого объема запретов?
Сразу скажу, что перенести эти страницы в одну папку и запретить - не получится, енто тырнет магазин...
страницы все разные, пример такой:
/c18pg10.html
/c18pg210.html
/c18pg30.html
/c18pg40.html
/c15pg20.html
/c15pg10.html
......
Ну и так далее, 140 штук.
Заранее благодарен за ответ.
Грубой ошибки не будет, будет лучше конечно, если просто закрыть директорию, где все эти страницы располагаются. Если же так не получается, то можно оставить, робот не подавится:)
User-agent: Yandex
Disallow:
Источник: http://help.yandex.ru/webmaster/?id=996567
Так что не подавится, у Вас намного меньше допустимого размер выйдет. :)
Можно использовать метатег роботс: http://robotstxt.org.ru/RobotsExclusion/meta
Можно запаролить эти страницы или вывести контент картинкой.
Приветствую.
Вопрос у меня наверное банальный, но тем не менее, лучше спрошу.
Есть большой сайт, на нем много страниц, и есть порядка 100-130 страниц, которые нужно запретить к индексации всеми роботами.
Не подавится ли яндекс от такого объема запретов?
Сразу скажу, что перенести эти страницы в одну папку и запретить - не получится, енто тырнет магазин...
страницы все разные, пример такой:
/c18pg10.html
/c18pg210.html
/c18pg30.html
/c18pg40.html
/c15pg20.html
/c15pg10.html
......
Ну и так далее, 140 штук.
Заранее благодарен за ответ.
а у них схожего шаблона нет?
/c1*
например
Str256, интернет магазин не предполагает изменения шаблона каждой отдельно взятой страницы.
Можно запаролить эти страницы или вывести контент картинкой.
эти страницы нужны пользователям, но не поисковикам...
а у них схожего шаблона нет?
/c1*
например
Примеры урлов, которые я привел - это постраничная навигация в рубрике интернет магазина.
Есть урл вида:
site.ru/c1_marka_tovara1.html
site.ru/c2_marka_tovara2.html
Эти странички нужно оставить. а постраничную навигацию в этом каталоге нужно убрать.
В общем, если бы можно было все решить при помощи программинга - уже бы сделал. Но остается только один вариант из нормально реализуемых - роботс:)
Меня просто интересовал размер роботса, которым не подавится яндекс:)