- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Частенько упоминая АГС говорят о дублях на сайте. Что все таки является дублями для яндекса в пределах одного сайта?
Достаточно удобно делать в левой части блок с популярными новостями или дургими item. блок естественно повторяется на всех страницах. Занимает 10-20% текста от всего текста на странице. Меняется содержимое блока раз в 2 месяца. Это и есть дубль?
У меня что то сомнения по этому поводу возникают!
Также на каждой странице текст с пояснением к сайту на каждой странице.
Практически невозможно сделать уникальны блок для каждой страницы , если этих страниц более 40к.
Речь идёт о полных дублях страниц, которые рекомендуют закрывать от робота. Например облако меток порождает кучу дубл. страниц с кл.словом. Дубли были очень удобны при быстром построении ГС для сапе порождая большой процент дублированных страниц для продажи ссылок.
Вопрос в том, какой процент повторяющегося контента считать "полным" дублем?
Ведь очевидно, что замена даже одного символа на странице делает ее фактически уникальной, но только не для ПС.
Вопрос в том, какой процент повторяющегося контента считать "полным" дублем?
Закройте все результаты поисков, теги, краткие новости в ноиндекс и будет вам счастье.
что замена даже одного символа на странице делает ее фактически уникальной
Серьезно? Теоретик?
Занимает 10-20% текста от всего текста на странице
Да, это и есть дублирование.Закрывайте от индексации
Закройте все результаты поисков, теги, краткие новости в ноиндекс и будет вам счастье.
Это не похоже на ответ о процентах, а просто всем известная теория. Теоретик?
Серьезно? Теоретик?
Уважаемый, простите, но это факт.
Любому вычислительному устройству, установив 100% совпадений, можно скормить две страницы, в которой различается лишь одна буква и он сочтет их разными. Так доступнее объяснила? Или на бумажке нарисовать?
Речь как раз о том, какое количество различий нужно Яндексу. В процентах, а не в советах, что закрыть.
яндексу нужны не различные, а полезные тексты
Danusya, почитайте о шинглах.
Да, я знаю о шинглах, спасибо :)
Хотя смотря что вы посоветовали бы прочесть. Точной информации по разбиению на шинглы и их индексации я не нашла и вряд ли Я даст нам такие данные. Или я ошибаюсь?
<offtop>И вообще, что вы тут Danusya, Danusya... это не мой топик, ТС все еще ответа ждет)))</offtop>
Закройте все результаты поисков, теги, краткие новости в ноиндекс и будет вам счастье.
Да, это и есть дублирование.Закрывайте от индексации
Если все закрыть то и текста не останется. Посмотрел несколько топовых сайтов, часть текста повторяется на всех странцих и NOINDEX не закрыта.
Я поэтому и поднял эту тему. Мне кажется это уже на грани шизофрении - все закрыть, что бы на каждой странице был уникальный не повторяющийся текст. Тогда по моему лучше сам сайт закрыть.
Мне кажется это уже на грани шизофрении - все закрыть, что бы на каждой странице был уникальный не повторяющийся текст.
Ну не всё закрыть, а только повторы.
Останется 88% ... если закрыть повторы.
блок естественно повторяется на всех страницах.
Выбирайте одну страницу, на которой этим сведениям лучше всего искаться...
Можно предположить, что причиной неприятностей становится не одно упомянутое обстоятельство.
Это не похоже на ответ о процентах, а просто всем известная теория. Теоретик?
В процентах вам никто точный ответ не скажет.
Любому вычислительному устройству, установив 100% совпадений, можно скормить две страницы, в которой различается лишь одна буква и он сочтет их разными. Так доступнее объяснила? Или на бумажке нарисовать?
О каком вычислительном устройстве ты говоришь? Такой бред написала, чтода же я, программист, не могу разобраться.
Ты понимаешь, что 2 странички, на одной из которых поменян символ, для яндекса все равно останется неуникальной.
Да, я ошибся. Ты не теоретик, ты блондинка)
Посмотрел несколько топовых сайтов
В этом то и разница, то что трастовым можно - вам нельзя. Бывает и они страдают по такой же причине.
Если все закрыть то и текста не останется
Как это так? У вас что сотни страничек и тысячи их дублей?
Вообще что обычно закрывается:
Допустим есть статья, внизу список похожих тем с кратким изложением(копипалстом начала статей). Так вот весь этот список внизу статей закрывайте в <noindex>