- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если полностью одинаковый контент на страницах сайтах, то склеет однозначно!
А если допустим взять два сайта с полностью одинаковым контентом, но на одном сайте поменять абзацы текста местами, как тогда отреагирует яндекс, поклеет сайты или нет? Ведь получается что типа тексты разные... у первого сайта первый абзац один, а у второго сайта первый абзац другой.
Кто-нибудь проводил подобные эксперементы? Поделитесь наблюдениями ПЛИЗ!
Может и не склеют, но забанят точно :)
Может и не склеют, но забанят точно :)
Да!? можно посмотреть где написано, что яндекс банит одинаковые по контенту сайты или примеры!?
Введите какой-нибудь низкочастотник и посмотрите выдачу - несколько десятков сайтов будет чуть ли не подряд, которые будут содержать ОДИНАКОВЫЙ текст! Кстати, это даже бесит... еще 5 лет назад так было, так ничего и непридумали, чтобы в выдачу не выдавать подряд страницы с одинаковым текстом!
Ну сорри сорри, выдал желаемое за действительное или наоборот :)
Klopopryg, может быть напрасно Вы так категоричны? Ну склеивает же Яндекс ссылки с одинаковыми текстами и регистрации с одним и тем же описанием, почему не склеит сайты с одинаковым конентом? Не обязательно склеит, но если увидит то наверняка, нет?
Klopopryg, может быть напрасно Вы так категоричны? Ну склеивает же Яндекс ссылки с одинаковыми текстами и регистрации с одним и тем же описанием, почему не склеит сайты с одинаковым конентом? Не обязательно склеит, но если увидит то наверняка, нет?
Пример в выдаче показать!?
Klopopryg, Вы меня не так поняли, я не говорю, что так не делают, простоу Яндекса руки (боты) недоходят до этого. Но справился же он с дорвеями, хоть в какой-то степени, Вы можете утверждать что он не возьмётся за склейку одинаковых контентов? А выдачу, конечно, привидите пример плиз..
Пример в выдаче показать!?
На самом деле если диз разный, то шансов что забанят мало, но есть шансы - что на один из братьев близнецов наложат фильтр какой-нибудь. Если дизайн одинковый, то пару раз сталкивался со склейкой сайтов
На самом деле если диз разный, то шансов что забанят мало, но есть шансы - что на один из братьев близнецов наложат фильтр какой-нибудь. Если дизайн одинковый, то пару раз сталкивался со склейкой сайтов
вы про сайты с одинаковым конетнтом говорите или про те, которые описал топикпастер!?
Если полностью одинаковый контент на страницах сайтах, то склеет однозначно!
А если допустим взять два сайта с полностью одинаковым контентом, но на одном сайте поменять абзацы текста местами, как тогда отреагирует яндекс, поклеет сайты или нет? Ведь получается что типа тексты разные... у первого сайта первый абзац один, а у второго сайта первый абзац другой.
Кто-нибудь проводил подобные эксперементы? Поделитесь наблюдениями ПЛИЗ!
Алгоритм вычисления уникальности контента таков:
весь текст делится на десятисловия - как бы "наборы" из десяти слов. Для каждого такого десятисловия считается контрольная сумма. Думаю, вы знаете как это делается, для каждой буквы, имеющей свой ASCII-код. Таким образом получается компактная последовательность контрольных сумм, "описывающих" любой текст.
Если робот где-то встречает менее 20% совпадений последовательности контрольных сумм - о плагиате речь не идет. Если в каком-либо новом тексте около 30-40% процентов совпадений - понятно, по материалам какого(-ких) сайта(-ов) он писался.
Если же более 60-70% совпадений контрольных сумм - скорее всего плагиат, просто в нескольких предложениях переставлены слова. Ну а 90-98% совпадений - все ясно!
В случае перестановки абзацев - останется точное количество контрольных сумм и их последовательность. То, что "переставлены абзацы" - робот вычисляет на раз!
Правда, Роман правильно сказал, эта технология еще не до конца введена в алгоритм и одинаковый текст в серпе есть на разных стоящих подряд сайтах.
Однако, это, по большей части, из-за того, что HTML все-таки разный... :)
SNIPER, ответ на вопрос находится на сайте Яндекса: там есть две статьи об алгоритме склейки
diafan, это алгоритм "шинглов", насколько я помню. У Яндекс другой алгоритм.