- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, у меня есть, как я думаю, интересный вопрос. И так, у меня есть сайт, на котором около 5 000 страниц. Сайт (блог) на английском языке, конечно на нём есть уникальный контент, он разделён по категориям, именно этот контент обрабатывается в соц. сетях.
Но есть ещё один маленький сервис на сайте, он подразумевает что каждый вебмастер, блоггер может отправить ссылку + название + краткое описание своей статьи (по тематике моего сайта). Так уже пол года работается, ссылок в день высылаются около 20, сформировалось следующая ситуация: на сайте около 300 своих уникальных статей и около 4700 отправленных ссылок вебмастерами которые в принципе публикуются как статьи, в форме: название, краткое описание, ссылка на оригинальную статью.
После выхода гугл панда надумал я быстро это дублированный контент, около 4700 статей, спрятать под noindex, и так на сайте будут индексированы только те 300 моих статей, ну и другие которые будут.
Что вы думаете об этом?
Как может повлиять такое количество noindex на гугл или на сайт?
А в чём прикол noindex? Не проще ли сразу в robots.txt прописать, чтобы не индексировал страницы ненужные вам? Тут гугл вроде не должен ничего против иметь..
Speculum прописать 4700 страниц + по 20-30 которые добавляются ежедневно? :)
то есть в категориях перемешаны уникальные сообщения с неуникальными анонсами? Если так, то как вы собираетесь прописать через noindex?
noindex - Яндексовый тег, Гугл его просто не видит.
noindex - Яндексовый тег, Гугл его просто не видит.
http://www.google.com/support/webmasters/bin/answer.py?hl=ru&answer=93710
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
Speculum уникальные статьи разделены по категориям, а статьи которые были отправлены вебмастерами через форму отправки находятся только в одной категории, проблема не как вставить noindex, он уже вставлен, проблемы в:
Как может повлиять такое количество noindex на гугл или на сайт?
palladin_jedi ещё как видит
lekter, ваша логика ясна. И прямого ответа на ваш вопрос я дать не могу, но мне почему-то кажется, что добавить запись в robots.txt было бы проще, а главное - предсказуемо. Хотя утверждать ничего я не могу, ведь структуры вашего сайта я не знаю.
А по сему буду молчаливо наблюдать за дальнейшим ходом обсуждения :)
Если и закрывать от индексации то мета-тегом noindex, поскольку закрыв страницы через robots.txt вы исключите эти страницы из перелинковки, будут только зря вес отнимать.
а если ето чтото-типо архивов, и там есть ссылки только на внутренние страницы то лучше мета-тегом noindex,follow мне кажется
гугл не будет возмущатся что на стольких страницах noindex?