- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
не стоит ничего мудрить. нет такого понятия как привала по джумли или еще по какмнить граблям. Так уж вышло, что в инете есть одно правило - правило *NIX. Если в пути в конце стоит / - это каталог, если нет - это файл. если бы сайт был нормальным (без кривых CMS) то проблем бы просто небыло. url _http://xxxx/aa - отдавался бы файл aa, а по url _http://xxxx/aa/ отдавался бы файл, установленный в настройках сервера как дефалтовый для папки. И никаких бы разногласий небыло. Разночтения возникают в кривых CMS с использованием километровых правил в модреврайте. Просто приведите правила в соотвествие со стандартом и небудет больше подобных глупых вопросов.
что касается яши... вспомните о панятии дубля (копии) страницы.....
Была подобная проблема, яша сам вдруг нашел страницы без слэша, хотя 100% что ссылок на них нигде не было.
Решил проблему закрытием таких страниц в роботсе. Т.к. у меня все урлы с id, т.е. числовые, получилось вот такое:
Disallow: /*0$
Disallow: /*1$
Disallow: /*2$
Disallow: /*3$
Disallow: /*4$
Disallow: /*5$
Disallow: /*6$
Disallow: /*7$
Disallow: /*8$
Disallow: /*9$
Если у ТС все урлы со слэшем, можно поступить аналогично, только дописать буквы. Главное не закрыть ничего лишнего...
Sattt,
Немножко не понял. Объясните пожалуйста на примере.
Как закрыть к индексации страницу www.site.ru/stranica
но при этом оставить www.site.ru/stranica/
Wings Of Fury добавил 01.09.2009 в 17:24
T.R.O.N,
Не моя вина что использовали такую CMS с дебильными километровыми правилами, с собственным внутренним языком. До меня тут человек поработал, который нагрел фирму на этом сайте на 100 000 рублей, не говоря о тех деньгах, на которые этот сайт делался, т.к. он часть работ заказывал у одной фирмы, часть у другой, хостинг размещения тоже у своих друзей. В общем генеральный влетел довольно сильно. А мне теперь разгребай ... вопросы может и глупые, но учусь по ходу дела, с модреврайтом работал, но таких сложных правил не писал ... УЧУСЬ ...
Sattt,
Немножко не понял. Объясните пожалуйста на примере.
Как закрыть к индексации страницу www.site.ru/stranica
но при этом оставить www.site.ru/stranica/
Disallow: /*a$
Закрываем все страницы по шаблону "www.site.ru/[любой текст]a", т.е. заканчивающиеся на букву "a" и без слэша в конце.
Правда, есть один нюанс. Если таким образом закрыть все буквы, закроется всё что не заканчивается на слэш: .php, .html, .jpg и т.д.
Если такие страницы/картинки нужны, придется их прописать в Allow.
P.S. Почитайте http://help.yandex.ru/webmaster/?id=996567
Как закрыть к индексации страницу www.site.ru/stranica
но при этом оставить www.site.ru/stranica/
если нет сложных рерайтов, тогда объясните, по этим ссылкам отдаются разные страницы или одинаковые?
вопросы может и глупые, но учусь по ходу дела
без обид. Вопрос глуп не в вашем посте, а просто в сути....
Sattt,
Спасибо, обязательно прочту
T.R.O.N,
одинаковые страницы
Сложных правил не писал в том смысле что пока не умею просто. Активно напрягаю яндекс по данным вопросам и форумы, пытаюсь постичь сию науку.
одинаковые страницы
тогда просто забейте... или, что правильней, просто вставьте кусок кода, котрый проверяет урл, и если на конце есть/нет слеша делает редирект на нет/есть (как больше нравится)
Sattt,
Немножко не понял. Объясните пожалуйста на примере.
Как закрыть к индексации страницу www.site.ru/stranica
но при этом оставить www.site.ru/stranica/
тыц
Например по запросу Fallout 2 информация об игре
games.1c.ru/fallout2 редиректит на games.1c.ru/fallout2/
На выдаче урл со слешом на конце