- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Господа, сайт на joomla 1.5 , проблема - откуда то появляются дубли страниц, соответственно поисковики хватают то, что первое попадется ботам, а не всегде попадается именно та сраница и именно с тем урлом на который закупаются ссылки.
Прошу помощи спецов - как избавится от дублей (клонов) старниц.
Заранее благодарен
именно та сраница
В роботс.тхт страницы закрывай ненужные... :)
В роботс.тхт страницы закрывай ненужные...
А они всё будут и будут плодиться :)
Miscun, установите SEF-компонент, тогда все странички у Вас будут доступны ботам только в единственном числе.
А вообще, что за странички дублируются? Все подряд, или типа страниц результатов поиска?
Установите sh404SEF и запретите индексацию ненужных страниц в файле robots.txt
Установите sh404SEF и запретите индексацию ненужных страниц в файле robots.txt
Если будет установлен компонент SEF, с корректно прописанными в нём ссылками, то в robots.txt ничего и закрывать не надо будет. Лишние странички сами, по 404, отвалятся.
В роботс.тхт страницы закрывай ненужные... :)
Казалось бы логичное предложение, но к сожалению более чем трудоемкое и малоэффективное.
Допустим у Вас есть такие страницы:
САЙТ/новости/свежие-новости/выпал-дождь
САЙТ/новости/свежие-новости/выпал-град
И есть такая:
И вдруг Вы обнаруживаете, что Джумла сделала вам медвежью услугу в виде копий страниц с такими адресами:
САЙТ/новости/СНЕГА-НЕТ
И сделаете нечто подобное (НЕ ПОВТОРЯТЬ - ЧРЕВАТО! 😂 ):
Disallow: /новости/свежие-новости/
Disallow: /новости/
Что получится?
Лучше уж сразу NOINDEX, NOFOLLOW и ...контрольный выстрел в голову.
Мне многое нравится в Джумле, но благодаря этой ее непонятной склонности к непроизвольной самоплодовитости, у меня на сайте, где реально (с уникальным по Адвего текстом) около 80 страниц, Гугле находит:
В основной выдаче Google - 26
В supplemental выдаче Google - 1064 (97.6%)
И это при том, что файлом robots.txt закрыто около 30-40 совершенно левых путей к клонам! До этого было больше 2000 страниц!
😡 😡 😡
Так что файлом robots.txt реально закрыть только часть клонированных страниц.
Некоторые адреса НЕ получится закрыть подобным образом!!!
На практике заметил еще, что НЕ НАДО увлекаться дополнительными навигациями типа "хлебных крошек" и других вариантов.
В такой компоновке модулей как на моем сайте подобные дополнения дают благодатную почву для ПОЯВЛЕНИЯ НОВЫХ самых невероятных путей К ОДНОЙ И ТОЙ ЖЕ СТРАНИЦЕ!!!
Господа, сайт на joomla 1.5 , проблема - откуда то появляются дубли страниц, соответственно поисковики хватают то, что первое попадется ботам, а не всегде попадается именно та сраница и именно с тем урлом на который закупаются ссылки.
Прошу помощи спецов - как избавится от дублей (клонов) старниц.
Заранее благодарен
Это происходит из-за разрыва страницы, одна и та же статья, получается, по двум адресам.
Выводите полностью статью на одной странице или разбивайте статью на две страницы.
Статья в виде блога:
Кол-во главных -0
Кол-во вводных -1
Столбцы -1
Ссылки - сколько вам нужно
Порядок по убыванию.
Получается по принципу книги.
Это происходит из-за разрыва страницы, одна и та же статья, получается, по двум адресам. Выводите полностью статью на одной странице или разбивайте статью на две страницы.
Видно вы невнимательно прочитали проблему или не совсем правильно поняли вопрос.
К блоговому варианту размещения статей это не имеет никакого отношения!
ЛЮБЫЕ СТРАНИЦЫ - клонируются по самым неожиданным путям!
...хотя не исключаю, что в блоговом варианте свои прибабахи! 😒
Я выкладывал в этой ветке решение проблемы с дублями, поищите...
Я выкладывал в этой ветке решение проблемы с дублями, поищите...
А не могли бы плиз ссылочку дать, а то ненашел?