- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый вечер, не подскажете где можно что нибудь почитать по оптимизации на сайта джумле (конечно же техническую часть - роботс и т.д.), желательно с примерами (мне так легче для понимания)
Спасибо кто откликнется🍿
Почему именно Джумла? Какие задачи? Другие CMS не рассматривали?
Не я выбирал :) необходимо найти решение проблемы :)
Решайте проблему, а не извратом занимайтесь.
Дельный совет :)
1. полное удаление дублей (множество путей есть)
2. rel canonical - чуть проще и быстрее
rel canonical не лучший способ. Что бы роботу ПС прочитать, что написано в этом метатеге, ему нужно зайти на страницу и дойти до этого тега, дальше он не пойдет.
Представьте, если у ТС на сайте 17000 ненужных страниц, это надо каждую открыть и увидеть, что они дубли. У робота ПС время на сайт ограниченно.
Проще прописать в роботсе, например:
Disallow: *_name
одна строка уберет из индекса вот такие урлы(у каждой категории или продукта):
index.php/shop-store/monetnicu/steklopalstikovye-monetnitsy/by,product_name
index.php/shop-store/monetnicu/steklopalstikovye-monetnitsy/by,category_name
index.php/shop-store/monetnicu/steklopalstikovye-monetnitsy/by,mf_name
Надо просто просмотреть на дубли и выбрать одинаковый параметр, но что бы он не закрывал от индексации нужные страницы.
Это сделать недолго и реально.