- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Такой вопрос. У страниц сайта появились дубликаты типа gamma-umk.ru/index.php?option=com_content&view=article&id=132:2011-05-19-04-17-22&catid=50:2011-05-19-04-05-38
а вот нормальная страница, которая должна быть в индексе http://gamma-umk.ru/index.php?option=com_content&view=article&id=132&Itemid=203
Подскажите пожалуйста, из за чего это может быть и как убрать? просто в роботсе закрыть?
включите чпу, а все эти кракозябры запретите в роботс.тхт
/ru/forum/632634
/ru/forum/668932
И поиск.
но если сейчас делать ЧПУ, у меня слетят позиции :(
Первым делом включаете ЧПУ, потом переименовать файл htaccess.txt в .htaccess
Роботс выглядеть будет так:
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Disallow: /index.html
Disallow: /*.pdf$
Disallow: /*print=1
Disallow: /*mailto/
Disallow: /component/
Disallow: /index.php/
Disallow: /index/
Disallow: /index.php/index.php?option=com_content&view=frontpage
Host:Сайт
но если сейчас делать ЧПУ, у меня слетят позиции :(
301 редирект поможет.
Первым делом включаете ЧПУ, потом переименовать файл htaccess.txt в .htaccess
Роботс выглядеть будет так:
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Disallow: /index.html
Disallow: /*.pdf$
Disallow: /*print=1
Disallow: /*mailto/
Disallow: /component/
Disallow: /index.php/
Disallow: /index/
Disallow: /index.php/index.php?option=com_content&view=frontpage
Host:Сайт
Лучше сделать для яндекса свой роботс, где и прописать директиву хост, еще в этом примере пропущена строчка со ссылкой на сайтмап:
sitemap: domain/sitemap.xml
Сейчас нет компа под рукой глянуть чего еще не хватает в примере - лично у меня закрыт индех2 и еще какая-то шняга. А вот картинки ни в коем случае не закрывайте от индексации - много людей переходят на сайт с поиска картинок.
За позиции не переживайте - скормите новую карту сайта поисковикам и они быстро переиндексируют новые урлы. Вскоре все вернется и даже станет лучше - пропишите ключевики в урлах - это будет плюс в ранжировании.
---------- Добавлено 02.03.2012 в 15:18 ----------
301 редирект поможет.
Считаю не стоит с ним возиться, все и так быстро переиндексируется. Уж поди не 10к страниц у ТС на сайте и посещалка не сотни тыщ, что прям так ударит по карману период обновления урлов в выдаче.
Считаю не стоит с ним возиться, все и так быстро переиндексируется. Уж поди не 10к страниц у ТС на сайте и посещалка не сотни тыщ, что прям так ударит по карману период обновления урлов в выдаче.
кхм,а что будет со старыми страницами?
думаете яндекс их быстро забудет? сомневаюсь...
правильнее всего сделать 301 редирект....а всю шушуру в роботе закрыть.
кхм,а что будет со старыми страницами?
думаете яндекс их быстро забудет? сомневаюсь...
правильнее всего сделать 301 редирект....а всю шушуру в роботе закрыть.
Лично я не делал никакой редирект. Сайту было уж полгода где-то, когда решил все-таки включить чпу. После отправки новой карты сайта через панель вебмастера в гугле и в ядексе, все довольно быстро переиндексировалось. Не заметил каких-то проблем. А если страниц пара сотен и к каждой прописывать редирект, это займет немало времени.
Спасибо большое всем за ответы =)) буду делать, надеюсь все получится:)
ТС, проверьте свой сайт. У меня NOD 32 ругается. Скрин прилагаю.