- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Дубль - это вторая страница, копия первой.
И вообще я могу одной странице хоть десять URL назначить и беды не будет.
Да хоть 20. Но что есть правильно? Робот будет ходить по дублям, будет тратить время, так до нового материала может не добраться. Заблудится в адресах и будет кричать АУ на вашем сайте.:) Шутка но смысл я думаю понятен, замедлится индексация, поскольку роботу нужно будет проходить уйму ненужных страниц.
Да хоть 20. Но что есть правильно? Робот будет ходить по дублям, будет тратить время, так до нового материала может не добраться. Заблудится в адресах и будет кричать АУ на вашем сайте.:) Шутка но смысл я думаю понятен, замедлится индексация, поскольку роботу нужно будет проходить уйму ненужных страниц.
В Ваших словах есть резон, но я говорил только о возможности и безвредности.
Вполне достаточно и весьма полезно давать только 1 дополнительный адрес - ЧПУ.
И еще. Почему Вы пишете, что робот будет скакать по дублям? Страница одна. С несколькими адресами. Мне сдается, что паучок без проблем надыбает основной, системный путь.
В Ваших словах есть резон, но я говорил только о возможности и безвредности.
Вполне достаточно и весьма полезно давать только 1 дополнительный адрес - ЧПУ.
И еще. Почему Вы пишете, что робот будет скакать по дублям? Страница одна. С несколькими адресами. Мне сдается, что паучок без проблем надыбает основной, системный путь.
Вы писали
Дубль - это вторая страница, копия первой.
И вообще я могу одной странице хоть десять URL назначить и беды не будет.
Вы писали о десяти, а я пишу хоть 20, лишь бы робот не заблудился. Поэтому дубли закрывают в роботсе
Дубль - это вторая страница, копия первой.
Чёткий дубль - это один и тот же контент, показываемый под разными url. Бывают и нечёткие дубли
И вообще я могу одной странице хоть десять URL назначить и беды не будет.
Проблемы могут быть от понижения страниц в выдаче и до АГС.
Что за глупости?
На всех-всех страницах менять?
глупости вебмастера, сделавшего такую навигацию - этада.
да, менять именно на всех страницах.
а вот решать проблемы верстки с помощью редиректов - вот глупость.
и ещё глупость - такое советовать.
вам нужно с ttp://getikea.ru/default.html сделать 301 редирект на http://getikea.ru/
а если в .htaccess
роботу нужно будет проходить уйму ненужных страниц.
а потом долго и мучительно их склеивать...
Alex Klo, пячусь. :)
Не спорю, что решать проблемы верстки редиректами - это зло.
Ну, а что делать, когда только это и есть выход из ситуации?
Просто интересны ситуации, когда в результате верстки вылазят сотни дублей с кривой навигацией.
Потом, в течение года, движок генерит еще сотни дублей.
Сайт "залипает" в поисковиках.
Ну и напоследок этот сайт отдают в какую-то контору на продвижение со словами: "Сайт стоит на месте. Делайте что-либо".