- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Приветствую всех!
Тупой вопрос, но все же, хочу быть на 100% уверен.
Если на сайте есть стр. дубли с разными урлами (джумла 2.5. К2), но на один из них ни откуда никаких ссылок нет в принципе. ни внешних. ни внутренних, такие страницы же в индекс не попадут и робот не будет их учитавыть/тратить на них время?
Если на сайте есть стр. дубли
то ПС будут их учитывать, из нужно закрывать.
Гуглобот даже страницы, закрытые в роботсе индексирует, а вы хотите, чтобы он дубли не индексировал. В любом случае лучше закрыть в роботсе и спать спокойно.
такая значит логика, ясно. благодарю
ни откуда никаких ссылок нет в принципе. ни внешних. ни внутренних
Нет, не попадут. Пока ПС о них не узнают. А узнать они могут в том числе и от тебя. Посмотришь на свои дубли с тулбаром или метрикой и удивишься. Это тот случай, когда проблему надо решать до ее наступления.
Robots.txt - крепкий сон. Дублем считается даже WWW.site.. что уж там если весь сайт зеркалит контентом...
Robots.txt - крепкий сон
Это не лекарство от дублей, максимум костыль, и то неполноценный.
вообще сайт на джумле 2.5 , компонент К2, как я говорил. при создании для матриала и атегории пункта меню можно задать красивые чпу. но при этом сохраняются и старые некрасивые чпу (человекопротивные). вот и думаю чего делвать. то ли дубли плодить , прописав правило в роботс, то ли от чпу отказаться..
Ну если на сайте все ссылки типа site.ru/categoria/muhagubka.html, а ссылки с передачей параметров через get (типа таких site.ru?grw=12&hertam=tut...) не используются, то можно смело в роботсе прописать "Disallow: *?" для все ботов, а еще лучше htacces, чтобы выдавал, что страница не существует.
Я покажу тебе как они сбываются.
И твоя сбудется обязательно!
Редирект тебе в помощь) mod_rewrite, .htaccess, регулярные выражения.
а вообще чем тогда лучше пожертвовать?
заняться разведением дублей, уничтожая их в роботс и htaccess или может лучше отказаться от чпу?
С дублями выходят чпу такие, какие захочу, без них же только концовка человекопонятна, а до нее всякие category и itemlis типа
www.site.ru/item/category/32-dostavka-schebny-na-dom
статей со временем будет много, сотни. так может быть пожертвовать чпу,
или если закрывать и редиректить их это безвредно?
На производительности не скажется ?