- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Так почему мы можем руками определить уник, а Яша не может? Подумайте.
В индексе у Я. более миллиарда страниц...:)
Нужно страницу №1 сравнить со страницей №2, далее со страницей №3... и т. д.
А если на странице №1 отличается от страницы №2 только отсутствием запятой? :)
Думаете это так просто?
Как вы вообще себе это все представляете?
В индексе у Я. более миллиарда страниц...:)
Нужно страницу №1 сравнить со страницей №2, далее со страницей №3... и т. д.
А если на странице №1 отличается от страницы №2 только отсутствием запятой? :)
Думаете это так просто?
Как вы вообще себе это все представляете?
И собрал в пятницу Садовский к себе в кабинет всех 68 сотрудников.
И выбрали сотрудники по 10 сайтов для ТОП в каждую тематику, а остальные сайты, как хотят в случайном математическом порядке лягут.
И ВЫБРАЛ САМ, какие сайты уникальны, а какие - никак. Долго мучался, но РЕШИЛ.
Удалил BDBD - понял что ошибся - вернул в зад.
Не пошло дело руками дубли удалять. Решил коллектив сотрудников и форумчан с серча привлечь.
И назвал тогда САМ - Яндекс внедряет новый алгоритм удаления дублей.
Хазарин, Вы серьзно пишите, или так, развлечься вышли?
Хазарин, Вы серьзно пишите, или так, развлечься вышли?
Паника насчет проверки Я. уникальности контента меня здорово развеселила! 😆
Не умеют они это делать! Ни Я. ни кто другой!
Допускаю, что выборочно проверят сильно оптимизированные сайты, а вернее их морды
П.С. Вы не ответили на мой вопрос: а как быть с запятой (или, наоборот, с ее отсутствием?) :-))
Паника насчет проверки Я. уникальности контента меня здорово развеселила! 😆
Не умеют они это делать! Ни Я. ни кто другой!
Вот именно, неумеют... поэтому, поводов для веселья, я невижу!
более тысячи варезник лягут на упокой... + сайты с онлайн-фильмами, которые сейчас стали популярны... если это действительно произойдет, ну всмысле бан дубликатов, то такой шум на SEO-форумах поднимется... ого-го
Вы всерьез считаете, что перечисленное Вами имеет отношение к SEO? :)
По теме - попал у меня один такой, эмм... блоговый... ;) в вебмастере - 10К страниц, в индексе не значится - 0 стр. :) Попал чисто по шаблону + спешный рерайт среднего качества...
Мне вот интересно а как интернет-магазины будут, где тех.характеристики у всех товаров одни и теже, если их выкинуть то еще на 30% сократить кол-во страниц в базе точно...
Прочитал все страницы и не увидел что на счет картинок, или этот фактор уже не учитывается? картинки в тексте также являются контентом и даже в поиска по картинкам у яндекса стоит отметка, что каждое изображение имеет законных правообладателей, так что если кто себе скопирует сразу вылет из выдачи? По общему вопросу темы конечно только плюс по замыслу, но большой вопрос в качестве определения дублей, ведь будет большая неразбериха и из-за хостинга, т.к. некоторые страницы сайтов будут недоступны при просмотре робота при плохой работе, в то же время на другом сайте этот же текст будет доступен, причем в конечном счете получится что второй автор!
P.S. не помню чтобы натыкался на весь список того, чего яндекс запрещает делать, причем именно полный от и до, если кто знает ссылочку в личку, спс.
234sha, вероятно, алгоритм будет, всё-таки, максимально аккуратным. :) И выкидывать из индекса будет те сайты, которые явно не достойны там находится. Может быть, на конечное решение алгоритма будет влиять не один фактор (неуник), а совокупность факторов.
Яндексойды ведь тоже прекрасно понимают, что половина лучших сайтов рунета живут копипастом.
В общем, мне кажется, что нормальным сайтам ничего особенно не грозит.
А если вдруг и будет худо, то и для интернет-магазинов решение найдётся — отзывы о товарах, комментарии пользователей, заметки директора (giftguru.ru, например) и просто раздел с уникальными статьями. Выход найдётся. :)
Что-то я не увидел адеватных оценок действий алгоритма в этом топике. Либо про уник. контент пишут, либо про явные ГСы, которые бы завтра всё равно в бан ушли бы... Значит нормально работает Яндекс, раз никто не кричит «Караул!». :)
Прочитал все страницы и не увидел что на счет картинок, или этот фактор уже не учитывается? картинки в тексте также являются контентом...
Вы очень переоцениваете вычислительные мощности всех 6ДЦ Яндекс ;)🍾🚬
Pall добавил 10.03.2009 в 17:23
И собрал в пятницу Садовский к себе в кабинет всех 68 сотрудников.
Собрать руками сотню "эталонов плагиата" с набором различий - дело, в общем-то, пары часов.
А потом - ну как нейроны в сети построятся на базе эталона... 😂
Уже вроде как давно заметил. Помоему если нет ссылки на источник "ворованной" статьи то страница с нею выпадает из индекса, остается лишь та, на которой текст был размещен первым.
Это ИМХО из личных наблюдений
если у авторитетного сайта спистят контент который не проиндексил яша, то даж сайт под фильтром будет выше в выдаче с ворованой статьей - кого первого проиндексили - тот и прав....воруют непроиндексенный контент и чрез аддурилку добавляют - говносайт с возрастом домена 2 мес - может считаться уникальным контентом и супер мега сайтом достойным внимания..