- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
вопрос в следующем, подскажите кто знает....
пытаюсь закрыть дубли страниц с помощью "robots.txt" и столкнулся с такой проблемой:
http://мой_сайт/2012/
http://мой_сайт/
--получается дубль и по идеи легко закрывается:
Disallow: /201*/
--Но проблема в том что страницы с материалами выглядят так:
http://мой_сайт/2012/12/24/evangelionicons1-0.html
--и соответственно закрывая "Disallow: /201*/" закрываю нужный контент ......
Посоветуйте как и что лучше сделать .?????
Такое решение не подойдёт?
Можно использовать спецсимвол '$', например:
Disallow: /2012/$
# запрещает '/2012/',
# но не запрещает 'httр://мой_сайт/2012/12/24/evangelionicons1-0.html'
Можно использовать спецсимвол '$', например:
Disallow: /2012/$
# запрещает '/2012/',
# но не запрещает 'httр://мой_сайт/2012/12/24/evangelionicons1-0.html'
Спасибо .... думал об этом но не был уверен
---------- Добавлено 26.09.2013 в 16:01 ----------
Такое решение не подойдёт?
Такое решение не подойдёт, таких страниц много и все они разные, так что разрешать каждую в "robots.txt" физически невозможно, их не одна тысяча
Продолжение вопроса :)
Как ПРАВИЛЬНО разрешить:
http://мой_сайт/gadgets/
и запретить :
http://мой_сайт/gadgets/gadgets_games1/
http://мой_сайт/gadgets/gadgets_games2/
http://мой_сайт/gadgets/gadgets_games5/
.....
Думаю так можно, на всякий случай проверьте в Яндекс вебмастере:
Disallow: /gadgets/gadgets_games*/$
Думаю так можно, на всякий случай проверьте в Яндекс вебмастере:
Disallow: /gadgets/gadgets_games*/$
К сожалению не подойдет.
Наверное я не точно сформулировал вопрос, таких страниц МНОГО и они все РАЗНЫЕ, типа:
http://мой_сайт/gadgets/gadgets_games1/
http://мой_сайт/gadgets/guter/
http://мой_сайт/gadgets/mitter/
....
Возможна ли такая конструкция..??
http://мой_сайт/gadgets$/*
Тогда через robots.txt не получится, можно в движке выдавать метатег "robots".
Тогда следующий вопрос ...
Как правильно метатег составить и имеет ли значение на каком движке сайт???
Тогда следующий вопрос ...
Как правильно метатег составить и имеет ли значение на каком движке сайт???
Конечно, все зависит от движка и от того, что надо закрывать от индексации. Проверяете например, находимся ли мы в нужном разделе-категории и если да - вставляем в блок метатегов <meta name="robots" content="noindex,nofollow" />.
дле
Http://alaev.info/blog/post/3900
Вп
Http://alaev.info/blog/post/4143