- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте всем!
Сайт на NetCat.
При переходе на сайт из ПС,формируются url с окончанием ?sid=.К примеру:http://www.мой сайт.com/xxxx/?sid=
Однако на самом сайте при переходе по внутренним ссылкам,такого окончания в урл нету,только при переходах с ПС Яндекса и Гугла.
Файл robots:
User-Agent: *
Disallow: /?
Disallow: /install/
Disallow: /links/
Disallow: /js/
Disallow: /netcat/
Disallow: /netcat_files/
Disallow: /contacts/suwevskij/
Disallow: /*.swf
Disallow: /eng/
Disallow: /news/
Disallow: /? - влияет ли этот запрет на такое формирование ?sid=? и если да,то как правильно прописать,может я прост не правильно это сделал?
Так же хочу узнать,такое вот окончание "ломает" смысл ЧПУ,если в конце ?sid=?
Очень буду благодарен за советы!!!
Влияет если ссылка начинается с ним, в вашем случае /xxxx/?sid нет.
Disallow: /*?
Так же хочу узнать,такое вот окончание "ломает" смысл ЧПУ,если в конце ?sid=?
У чпу нет "смысла".
Вообще это может создать дубли страницы.
Disallow: /*?
поправил.надеюсь это не вызовет дублей,которых в принципе не было.
У чпу нет "смысла".
ну я имею в виду,что поисковики как правило любят ЧПУ,а тут такое окончание.не лишнее?
т.е. со стороны оптимизатора вопросов не должно возникать,только рекомендация для программиста,который сайтом занимается?
ну я имею в виду,что поисковики как правило любят ЧПУ
Вам же выше сказали правильно:
У чпу нет "смысла".
Т.е. от моих действий ничего не зависит и это внутренние настройки данной cms?
Подскажите заодно,как правильно через роботс запретить категорию,в которой есть остальные категории?
http://www.мой сайт.com/services/
http://www.мой сайт.com/services/translate/
т.е. запретить только /services/,но чтобы запрет на /translate/ и др.последующие категории не коснулся?
Заранее спасибо!
Т.е. от моих действий ничего не зависит и это внутренние настройки данной cms?
Ничего не понятно. От ваших действий зависит всё!
Если страница доступна по 2 и более адресам — плохо. Совершенно неважно, что на этот счёт думали разработчики. Надо устранять.
Посмотрите сайт по составлению robots.txt, если будет что-то непонятно, тогда подскажем. :)
http://robotstxt.org.ru/
Мне самому не понятно,поэтому и обращаюсь к вам с вопросами.
Выше написал siv1987,что параметр Disallow: /*? запрещает в том случае,если ссылка начинается с ?sid=,но в моём случае ссылка заканчивается ?sid=.
Всё равно не понимаю,как такие ссылки запретить к индексации,а оставить только те,у которых нету такого окончания.
На сайте роботс уже был,только я боюсь перепутать.
Мне прописать вот так:
Disallow: /services/
или без слэша
Disallow: /services
Главное чтобы последующих категорий это не коснулось.
Disallow: /services
Главное чтобы последующих категорий это не коснулось.
Это коснётся всех следующих категорий, как и Disallow: /services/
Это коснётся всех следующих категорий, как и Disallow: /services/
Я вот тоже так думаю.Вообщем robots мне тут не поможет,ни со случаем ?sid=,ни с запретом этой категории,которая является по сути дублем,т.к. на сайте есть аналогичная страница,чуть изменённая.Такое ощущение,что сайт переделывали,а то что было до этого,осталось и попало в индекс.
Кстати на форуме нашёл аналогичную проблему c ?sid=,только там человек делал самописную cms:
/ru/forum/652103
Остаётся только на этих страницах прописывать <meta name=“robots” content=“noindex,nofollow”>
Подождём ещё,может кто ещё отпишется.
Спасибо за ответы!
Мне самому не понятно,поэтому и обращаюсь к вам с вопросами.
Выше написал siv1987,что параметр Disallow: /*? запрещает в том случае,если ссылка начинается с ?sid=
Я написал, что если ссылка НЕ начинается с ?sid ваш запрет из стартпоста запрет на него не действует.
А Disallow: /*?sid - закрывает все страницы с ним, независимо в какой части ссылки находится данный фрагмент. Звездочка это спецсимвол означающий ноль или больше символов. Фак что ли почитать http://help.yandex.ru/webmaster/?id=996567#996572
Я написал, что если ссылка НЕ начинается с ?sid ваш запрет из стартпоста запрет на него не действует.
А Disallow: /*?sid - закрывает все страницы с ним, независимо в какой части ссылки находится данный фрагмент. Звездочка это спецсимвол означающий ноль или больше символов. Фак что ли почитать http://help.yandex.ru/webmaster/?id=996567#996572
Извиняюсь,не правильно вас понял.Прописал в роботс Disallow: /*?sid ,посмотрим поможет или нет.О результатах отпишусь!