- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
здравствуйте, хотел бы спросить. На сайте все материалы уникальные на 100 %, они мои авторские. Но на главной выводятся последние материалы в виде вступления с кнопкой "подробнее", также есть разделы, в которых тоже выводятся краткие версии статей, содержащихся в них. Как к этому отнесутся ПС? Ведь получается, что на главной и на страницах основных разделов, как, впрочем и в самих материалах выводятся куски одинакового текста?
ПС относятся к дублям контента крайне негативно. Нужно закрывать их от индексации.
Лучше закрыть, хотя скорее всего (если сайт старый и имеет много контента) Вам не о чем беспокоиться.
А как мне их закрыть от индексации?
То есть мне надо прописать в robots.txt запрет на индексацию главных страниц разделов, где есть краткое содержание материалов, если я правильно понял. А с главной что делать? я же не могу ее запретить к индексации? На ней тоже выводится краткое содержание всех статей.
Сайт новый и уже в Гугле.
А с главной что делать?
я статическую ставлю
я статическую ставлю
Извините, а это как?
humorist добавил 03.06.2011 в 20:53
Объясню ситуацию поподробнее, т.к я не очень понял, что нужно сделать (в СЕО я полный новичок:)).
У меня на сайте следующая структура:
- главная страница, на которой выводится краткое содержание всех материалов сайта
- на главной есть меню, в котором ссылки на разделы. Рассмотрим один раздел, он называется "web-строительство", когда переходишь по этой ссылке в меню, то попадаешь на страницу, на которой идет вывод краткого содержания только тех статей, которые к разделу относятся. То есть, мне нужно эту страницу запретить в robots.txt, прально?
- на странице "web-строительство" также есть меню, в котором ссылки на подразделы: "Друпал" и "Css". Переходя по этим ссылкам пользователь попадает на страницу, где выводится краткое содержание материалов, которые к этим подразделам относятся. То есть эти страницы мне тоже надо запретить к индексации, так?
А с главной я придумал, что делать - просто буду писать в виде краткого содержания описание материала, которого нет в самой статье. Правильно я сделаю или что-то я перепутал?
Помогите, плиз...
Статическую, это значит постоянную, не изменяемую, с одним и тем же текстом день за днем.
З.Ы. Вы добавили и я добавлю, да, совершенно верно, не дублируйте краткую и полную новости, и будет вам счастье...
Статическую, это значит постоянную, не изменяемую, с одним и тем же текстом день за днем.
З.Ы. Вы добавили и я добавлю, да, совершенно верно, не дублируйте краткую и полную новости, и будет вам счастье...
Подскажите, а как же тогда быть в вордпресе? Там ведь в каждом новом посте используеться тег "море" для скрытия части текста - получаеться есть целый пост который находиться в УВ3 по адресу : сайт/категория/пост , и есть маленькие части (получаеться дубли) этого поста которые анонсируються как на главной во время публикации по адресу : сайт/ , а также анонсируються в самой категории по адресу: сайт/категория. Как полностью уберегтись от дублей страниц/контена на сайте и не попасть под фильтры или в бан? Может есть способ прикрыть все части/дубли текста в роботсе?
С помощью роботса такое не получится сотворить, имхо. А так еще хочу добавить, что вы скорее всего не попадете в бан из-за такого пустяка, тысячи сайтов и блогов так живут и ничего, просто поисковик сам отфильтрует ненужные части или страницы, вот и все.
Морду забить другим контентом по теме, либо выводить, как и в разделах краткий анонс полной статьи (2-3 предложения). И все будет отлично, если не делать тяп-ляп.
В принципе, закрывать не обязательно. Бывают страницы категорий, страницы тэгов и т.д. Из индекса они вылетают редко.
Единственный минус в плане оптимизации. Бывает, что ПС начинает считать более релевантной страницу категорий, куда выводится анонс статьи, а не саму статью.
И тогда, если вы прокачивали и поднимали в ТОП именно статью, будет проседание позиций.