- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени суток!
Помогите пожалуйста с .htaccess.
Панда покоя не дает, вот пытаюсь бороться с дублями. Джумла нагенерила их дофигище. В Яши в индексе 3к страниц, в Гугла - 85к. Гугл нарыл столько страниц до того, как прописал нормальный Роботс.тхт. В сниппетах так и пишет, что доступ закрыт в файле Роботс, но при этом с индекса не выбрасывает, а то и еще добавляет, не сморя на запрет.
Вот прочел что можно бороться с помощью 410 ошибки.
У меня есть определенные параметры которые встречаются в УРЛах дублей. Например, УРЛ вмещает в себя слово "code" или "selectcity". SEF включен, по факту ссылок на такие страницы с сайта нет. Но вот Гугл где то нарыл, непонятным способом.
Хочу прописать в .htaccess чтобы сервер отдавал 410 ошибку при попытке бота зайти на УРЛ, который вмещает в себя слово, например, "selectcity". Вот кусок с УРЛа: "...moskow?selectcity=%...".
То есть это не раздел или директория. Это слово может быть посредине и окружено другими символами.
Как же правильно написать, чтобы отдавать 410 на всех УРЛах, которые в своем составе имеют это слово?
Заранее спасибо!
Для джомлы есть чудесный компонент sh404sef установите его и забудете о своих
проблемах
если хотите закрыть урлы с вашими словами пропишите в роботсе
Disallow: /*code*
Disallow: /*selectcity*
Ели надумаете установить компонент как настроить здесь
---------- Добавлено 20.01.2013 в 21:14 ----------
Та я в курсе об этом компоненте. Но УРЛы и так красивые, крайней необходимости подключать его нет. Лишняя нагрузка, лишние запросы. Знаю что компонент суперский, но хочу попробовать сначала просто через htaccess прописать. Только вот синтаксис не шарю.
В стандартный джомловский файл htaccess нужно добавить только склейку доменов
все остальное отлавливайте и убирайте через роботс.
В стандартный джомловский файл htaccess нужно добавить только склейку доменов
все остальное отлавливайте и убирайте через роботс.
Все давно отловил и закрыл. Но ничего не помогает. Мне нужно чтобы бот выбросил страницу с индекса. Потому прошу подсказать по синтаксису в htaccess, а Вы мне все о баранах.
Что никто не шарит и не поможет? :(
В сниппетах так и пишет, что доступ закрыт в файле Роботс, но при этом с индекса не выбрасывает, а то и еще добавляет, не сморя на запрет.
Если пишет что урл запрещен, выбросит не переживайте. Проверяйте через пару месяцев, за две недели этого не произойдет.
Хочу прописать в .htaccess чтобы сервер отдавал 410 ошибку при попытке бота зайти на УРЛ, который вмещает в себя слово, например, "selectcity". Вот кусок с УРЛа: "...moskow?selectcity=%...".
RewriteCond %{QUERY_STRING} (code|selectcity)=
RewriteRule .? - [G]
Добавить после RewriteEngine On
Закрывайте в роботс.тхт
Большущее спасибо!!!! Буду ждать кода отвалится 80 с лишним тысяч дублей =) надеюсь это даст результат ☝