- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть ресурс, который переехал на новую структуру.
Хочу роботсом склеить все страницы, которые ведут на старые разделы, объявляю директиву:
Clean-param: refid&cPath&productID&categoryID&show_aux_page&gclid&manufacturers_id /index.php
Clean-param: refid&cPath&productID&categoryID&show_aux_page&gclid&manufacturers_id /
Но загвоздка в том что второе правило применится для всего сайта, то есть для всех урлов, которые внутри.
Вопрос - как правильно составить правило? Возможно как то поиграться с 301 редиректами надо, чтобы работало так, как задумано?
сlean-param не закрывает страницы от индексации, в привычном понимании этого слова.
дайте-ка лучше пример того, что надо закрыть, и пример того, что надо оставить (без указания доменного имени), или сайт в личку
он склеивает страницы с незначащими параметрами. при переезде на другую структуру все ссылки были про**ны, поэтому сейчас ничего не остается как редиректом склеить старую структуру с мордой новой. А так же на морде склеить меж собой страницы с разными урлами, но одинаковым содержанием.
http://www.domain.ru/index.php?refid=*
http://www.domain.ru/index.php?cPath=*
http://www.domain.ru/index.php?productID=*
http://www.domain.ru/index.php?categoryID=*
http://www.domain.ru/index.php?show_aux_page=*
собсно есть мысли склеить это все в кучу, плюс потом склеить index.php с / - но это уже совсем сео, чтоб вес аккумулировать в одном месте
собсно есть мысли склеить это все в кучу
- получите редирект всех страниц-дублей на http://www.domain.ru/
склеить index.php с / - но это уже совсем сео, чтоб вес аккумулировать в одном месте
можете также запретить сессии
iren K, спасибо, но вопрос был именно по роботсу, по моему проще им слепить это все в кучу (я про конкретные параметры, передаваемые гет'ом)
апача на веб сервере совсем нет, а редиректы прописываем через тикет систему хостинг-компании.. :) Но все равно спасибо)
Grimich добавил 02.08.2011 в 11:09
всё, общение загнулось.. так ничего конкретного и не услышал ))
Вопрос вдогонку - есть ли смысл делать редирект 301 с http://site.ru/index.php на морду http://site.ru/ ?
я думаю тебе поможет спецсимвол $ в роботсе, подробнее здесь http://help.yandex.ru/webmaster/?id=996567
PS склеивать имеет смысл и слеши поклеить тоже имеет смысл