- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
не стоит ничего мудрить. нет такого понятия как привала по джумли или еще по какмнить граблям. Так уж вышло, что в инете есть одно правило - правило *NIX. Если в пути в конце стоит / - это каталог, если нет - это файл. если бы сайт был нормальным (без кривых CMS) то проблем бы просто небыло. url _http://xxxx/aa - отдавался бы файл aa, а по url _http://xxxx/aa/ отдавался бы файл, установленный в настройках сервера как дефалтовый для папки. И никаких бы разногласий небыло. Разночтения возникают в кривых CMS с использованием километровых правил в модреврайте. Просто приведите правила в соотвествие со стандартом и небудет больше подобных глупых вопросов.
что касается яши... вспомните о панятии дубля (копии) страницы.....
Была подобная проблема, яша сам вдруг нашел страницы без слэша, хотя 100% что ссылок на них нигде не было.
Решил проблему закрытием таких страниц в роботсе. Т.к. у меня все урлы с id, т.е. числовые, получилось вот такое:
Disallow: /*0$
Disallow: /*1$
Disallow: /*2$
Disallow: /*3$
Disallow: /*4$
Disallow: /*5$
Disallow: /*6$
Disallow: /*7$
Disallow: /*8$
Disallow: /*9$
Если у ТС все урлы со слэшем, можно поступить аналогично, только дописать буквы. Главное не закрыть ничего лишнего...
Sattt,
Немножко не понял. Объясните пожалуйста на примере.
Как закрыть к индексации страницу www.site.ru/stranica
но при этом оставить www.site.ru/stranica/
Wings Of Fury добавил 01.09.2009 в 17:24
T.R.O.N,
Не моя вина что использовали такую CMS с дебильными километровыми правилами, с собственным внутренним языком. До меня тут человек поработал, который нагрел фирму на этом сайте на 100 000 рублей, не говоря о тех деньгах, на которые этот сайт делался, т.к. он часть работ заказывал у одной фирмы, часть у другой, хостинг размещения тоже у своих друзей. В общем генеральный влетел довольно сильно. А мне теперь разгребай ... вопросы может и глупые, но учусь по ходу дела, с модреврайтом работал, но таких сложных правил не писал ... УЧУСЬ ...
Sattt,
Немножко не понял. Объясните пожалуйста на примере.
Как закрыть к индексации страницу www.site.ru/stranica
но при этом оставить www.site.ru/stranica/
Disallow: /*a$
Закрываем все страницы по шаблону "www.site.ru/[любой текст]a", т.е. заканчивающиеся на букву "a" и без слэша в конце.
Правда, есть один нюанс. Если таким образом закрыть все буквы, закроется всё что не заканчивается на слэш: .php, .html, .jpg и т.д.
Если такие страницы/картинки нужны, придется их прописать в Allow.
P.S. Почитайте http://help.yandex.ru/webmaster/?id=996567
Как закрыть к индексации страницу www.site.ru/stranica
но при этом оставить www.site.ru/stranica/
если нет сложных рерайтов, тогда объясните, по этим ссылкам отдаются разные страницы или одинаковые?
вопросы может и глупые, но учусь по ходу дела
без обид. Вопрос глуп не в вашем посте, а просто в сути....
Sattt,
Спасибо, обязательно прочту
T.R.O.N,
одинаковые страницы
Сложных правил не писал в том смысле что пока не умею просто. Активно напрягаю яндекс по данным вопросам и форумы, пытаюсь постичь сию науку.
одинаковые страницы
тогда просто забейте... или, что правильней, просто вставьте кусок кода, котрый проверяет урл, и если на конце есть/нет слеша делает редирект на нет/есть (как больше нравится)
Sattt,
Немножко не понял. Объясните пожалуйста на примере.
Как закрыть к индексации страницу www.site.ru/stranica
но при этом оставить www.site.ru/stranica/
тыц
Например по запросу Fallout 2 информация об игре
games.1c.ru/fallout2 редиректит на games.1c.ru/fallout2/
На выдаче урл со слешом на конце