- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На сайте в разных разделах встречается одна и та же информация.
Для поисков это вроде плохо - когда по разным урлам одно и то же (не 100%, но 60-70%).
Имеет ли смысл один из разделов прятать от поисковиков через robots.txt?
<noindex></noindex> как вариант.
От дублей, переоптимизации, излишевств, которые отяжеляют код надо избавляться. Да, имеет смысл ставить запрет в robots.txt, это не приведет к возрастанию кода страниц. noindex, в данном случае, я бы не использовал. Многие разделы wordpress так закрываю. В панели вебмастера загруженных страниц уже в 4 раза больше, чем в индексе, но это никак не сказывается на ранжировании.
Что мешает просто уникализировать информацию в этих разделах? не может быть на сайте 2 раздела с одной и той же информацией, точнее может, но в этом нет смысла. Закрывать через роботс или в ноиндекс смысла нету, никаких минусов это не даст. Просто создаются неудобства для посетителей и пользователей сайта.
<noindex></noindex> как вариант.
Это тег не всегда работает.
Тогда уж скриптом закрывать.
Либо переписывать текст до 20-30% хотя бы.
Уникализируйте текст, будет проще и намного выгоднее. Иначе что нибудь намудрите с тегами и потом придется искать ошибки.
Можно проверить уникальность текста с помощью программы Advego Plagiatus
есть ли альтернатива программе Advego Plagiatus?
есть ли альтернатива программе Advego Plagiatus?
Есть, Миратулз (Miratools - на сайте Miralinks), мне даже больше чем Адвего нравится, но иногда сбоит, т.к. это онлайновый сервис. Еще есть copyscape, но он хуже, чем Адвего
По-моему наиболее лучшим вариантом будет закрывать дублирование контента, а разделы, где все таки индексируется информация, то лучше всего будет ее просто сделать уникальной.
кидай на уникализатор, так проще http://mvdd.ru. Правда там ограничение на количество символов есть.