- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт салона красоты http://www.makisalon.ru
У салона несколько филиалов и одна и та же услуга в разных филиалах дублируется как отдельная страница, меняется только шапка страницы. Из-за этого на сайте очень много дублированных страниц. Так же у сайта огромное количество пустых страниц. Поэтому первым делом я запретил к индексации все пустые и дублированные страницы в robots.txt. (http://www.makisalon.ru/robots.txt). Но прошло уже больше полугода, а Яндекс и Гугл по прежнему индексируют как пустые так дублированные страницы. Я думаю из-за этого сайт находится под фильтром из-за чего не растут позиции и ТИЦ. Подскажите, почему поисковики до сих пор индексируют страницы запрещенные к индексации в robots.txt? Может я что-то не так сделал?
Подскажите, почему поисковики до сих пор индексируют страницы запрещенные к индексации в robots.txt? Может я что-то не так сделал?
Может они сходят с ума от почти 2000 строк в robots.txt?
Попробуйте для Яндекса DelURL, он поможет.
я такой большой роботс первый раз вижу) не проще было на ненужные страницы добавить CONTENT="NOINDEX, NOFOLLOW" как я понял это "все (в папке), кроме одной"??
Valorous, запишите и запомните раз и навсегда, слишком большие файлы robots.txt (больше 32Кб) считаются полностью разрешающими. Хелп Яндекса вам в помощь.
http://mood-good.com/skazat-spasibo.html