- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
У меня есть сайт на Джумла, которому около 2 лет. Все страницы были вида http://сайт/content/view/741/66/ , все бы ничего, но особенности «движка» таковы, что в силу разных причин адреса страниц начинают клонироватся (когда делал сайт, об этом не знал), причем это не всегда зависит от вебмастера, поисковики иногда находят адреса, которых нет ни во внешних, но во внутренних ссылках. В итоге, в индексе разных поисковиков 8 000 – 12 000 страниц сайта, при 3 500 существующих. Заниматься ссылочной оптимизацией не удобно, все исходящие ссылки становятся сквозными, поисковики выдавали некоторые страницы в привязке к «чужой» категории и проч. Смотрел я на это как на неизбежное зло, пока в одно прекрасное позавчерашнее утро, подумал: а какого хрена, и поставил ЧПУ-компонент, который преобразовывает все адреса сайта к такому виду: http://сайт/imya_razdela/ imya_kategorii/stranica.html , причем клонов страниц нет, а при запросе пользователя или поисковика старых урлов («правильного» адреса или одного из клонов страницы) идет редирект на новый адрес.
Ну и собственно, вопрос: стоит ли в робот.тхт закрыть доступ к старым адресам? С одной стороны редирект нехорошо, а с другой я теряю все ссылки на внутренние страницы и получаю нулевые во всех смыслах страницы, на которые еще и понадобится время на переиндексацию.
Как в таких случаях ведет себя, скажем, Яндекс? Попав по редиректу на новый адрес в индексе останется: а) новый адрес, б) старый адрес, в) оба адреса?
Может ли получиться так, что заимствованные статьи с моего сайта на других сайтах станут считаться оригиналами?
Все же был бы благодарен, если б, кто-то владеющий вопросом поделился своим мнением на этот счет :).
поисковики иногда находят адреса, которых нет ни во внешних, но во внутренних ссылках.
Так не бывает :)
Значит ссылки таки есть (или были)
Ну и собственно, вопрос: стоит ли в робот.тхт закрыть доступ к старым адресам? С одной стороны редирект нехорошо, а с другой я теряю все ссылки на внутренние страницы и получаю нулевые во всех смыслах страницы, на которые еще и понадобится время на переиндексацию.
В таких целях редирект 301 - ничего страшного.
Как в таких случаях ведет себя, скажем, Яндекс? Попав по редиректу на новый адрес в индексе останется: а) новый адрес, б) старый адрес, в) оба адреса?
Если 301 - то новый.
Может ли получиться так, что заимствованные статьи с моего сайта на других сайтах станут считаться оригиналами?
От смены адреса это уж точно не зависит, имхо