- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Есть сайт на Joomla. При индексации в Google появляется очень много дублей страниц вида:
http://www.site.ru/cat/page.html?548fd2bca8921cf19a72dbdcacc0de=b96c2c836854caf5601c8e34d912e422
Как можно со станиц такого типа поставить либо 301 редирект на http://www.site.ru/cat/page.html или поставить 404 ошибку?
Пытался написать правило в .htaccess - не получилось, знаний не хватает.
/ru/forum/373500
Как раз Ваш случай - Joomla. Точнее Joomla + виртуемарт.
Смотрел эту тему. Там для одной конкретной страницы, а мне для всех страниц надо, там шаблон наверное нужно написать, а как - не знаю
первый вариант с robots.txt, просто написать
Disalow: /page?* // все адреса, которые содержат page? и символы после "?" со временем выпадут из индекса.
второй - поставить на джумлу sh404SEF он используется для создания ЧПУ. в итоге он соберет все адреса одной страницы, оставит только вида "http://www.site.ru/cat/page.html" , "левые" адреса на страницах поменяет на нужные.
с .htaccess на ум ничего не приходит.
Спасибо, попробую оба варианта.
не знал, что в robots.txt можно по шаблону запрещать.
Спасибо, попробую оба варианта.
не знал, что в robots.txt можно по шаблону запрещать.
не забудьте только проверить работоспособность robots.txt в панелях ВМ яндекса и гугла, мало ли что.
В яндексе роботс.тхт работает. Вот если много страниц будет на сайте, то этим способом затруднительно будет
Пропишите в .htaccess
php_value session.use_trans_sid 0
У меня прописано:
php_flag session.use_trans_sid Off
php_flag session.use_only_cookie On
php_flag session.auto_start On
Эффект нулевой, Google все равно плодит дубли.
Попробую Ваше решение.
вот мой robots.txt мне помогло
User-agent: *
Allow: /$
Allow: /*.php$
Allow: /*.jpg$
Allow: /*.gif$
Allow: /*.xml$
Allow: /*.png$
Allow: /*.html$
Disallow: /
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /editor/
Disallow: /help/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /mambots/
Disallow: /media/
Disallow: /modules/
Disallow: /templates/
☝
Что удивительно, Гугл даже с одной строчкой "Disallow: / " в роботс.тхт продолжал спокойно индексировать сайт :)