- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Сайт начал продвигать недели три назад. Ранее с CMS вообще не работал, делал сайты на html и php.
В настройках Joomle 3.3 всё установил по советам из интернета - включил ЧПУ и перенеправление УРЛ, исправил название .htaccess.
Всё работает, все урлы на страницы формируются в нужном виде по принципу http://site.ru/kategoria/pagename.
Яндекс всё индексирует правильно пока.
Гугл тоже сначала правильно всё проиндексировал, но дополнительно начал индексировать эти страницы с другими непонятными урлами, например появляются в индексе дубли страниц с урлами типа site.ru/kategoria/pagename?start=5 . Т.е добавляет знак вопроса и что-то дальше.
Дубль главной страницы проиндексировал site.ru/?catid=0&id=24.
Я ему в роботсе запретил урлы с вопросительным знаком. Удаляю эти дубли из индекса в WMT.
Всё равно опять находит и индексирует с дискрипшном "Описание веб-страницы недоступно из-за ограничений в файле robots.txt".
КАк с этим бороться?
Есть ещё проблема с дублями c www в индексе Гугла. Но об этом позже, есть надежда что всё уладится, вчера сделал необходимые настройки в WMT (указал приоритет на site.ru), указал в роботсе Host: site.ru, сделал в .htaccess. редирект на без www, удалил дубли, жду переиндексации главной страницы.
Ну, да, Гугл он такой :)
А какая проблема-то?
У меня есть несколько сайтов, где Гугл пытается лазить там, где ему в роботсе запрещено.
Пытался руками удалять даже, ему хоть бы хны. До 301 редиректа не дошел, так все и оставил и не парюсь.
А какая проблема-то?
Так ведь индексирует дубли и прячет их в сопли..
Везде пишут, что за дубли страниц Гугл пессимизирует сайт.
Есть ли какие-нибудь способы запретить формирование ненужных Урлов на одни и те же страницы в Joomle?
Непонятна сама система, как образуется адрес страницы. Может что-то поправить в .htaccess?
Всё равно опять находит и индексирует с дискрипшном "Описание веб-страницы недоступно из-за ограничений в файле robots.txt".
Просто расслабится. Все равно релевантнее будет основной адрес, а урлы запрещенные в robots практически не встречаются в поиске. Такие страницы полноценными дублями назвать нельзя.
Дополнительно можете настроить rel canonical