- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Допустим, я написал статью, поместил на сайт.
У меня эту статью спёрли и поместили на свои сайты, как поисковая система поймёт, что я первый написал эту статью?
Это определяет человек или робот?
У меня эту статью спёрли и поместили на свои сайты
radist, такое часто бывает.
как поисковая система поймёт что я первый написал эту статью?
Это определяет человек или робот?
Никто не будет париться по этому поводу :) Немного грубо, но таковы реалии... :(
ЗЫ. А даже если определит? Что делать-то будет? Банить? :) А вот к хостеру можно настучать или через whois поглядеть и купить биту...
radist, никак не определят. Если придумаете действенный способ как отличить оригинал - напишите Яндексу :)
Оч просто! первая проиндексированая статья является оригинальной! остальные дубли! только базу надо вести ну очень огромную чтобы помнить весь текст страниц! тут даже серверов гугловских не хватит )
Лично вашу по бааальшой граматнасти 😂
Оч просто! первая проиндексированая статья является оригинальной!
бред. а если стырили на следующий день после появления (а если через пару часов ? ), а у сайта котоорый тырил намного лучше индексация проходит?
минус бы поставил, но лень...
первая проиндексированая статья является оригинальной! остальные дубли!
Нет. Сам Яндекс говорит, что это бред, потому что одни ресурсы переиндексируются раз две недели, другие 2 раза в день, так что этот вариант они отбросили, как изначально ложный.
Допустим я написал статью поместил на сайт.
У меня эту статью спёрли и поместили на свои сайты, как поисковая система поймёт что я первый написал эту статью?
Это определяет человек или робот?
Роботы - никак. Если предполагается, что впоследствии придется доказывать Ваше авторство и приоритетность публикации в интернете, полезно в статью заранее при публикации внести поправки, которые воришка вынужденно скопирует - например в каком-то абзаце поменять все гласные "а", "о", "у" на буквы латинского алфавита. По крайней мере будет хоть что-то предъявить в качестве доказательства приоритетности :)
С уважением,
Виктор
radist, у Александра Садовского три года назад было предложение добавить (специально для Яндекса) в html новый мета-тег вроде <original href="...">, который будет действовать так: если ссылка указывает не на ту страницу, в которой она содержится, значит, это дубликат.
В какой-то мере поддержал его мысль Александр Мельков, сотрудник поисковой системы Яндекс, но, идея не прижилась. Поразмыслив над этим определенное время, стало понятно почему. Буквально вчера писал об этом.
По сути вопроса - роботы никак не определят авторство, да и человеку будет нелегко.
Роботы не могут этого сделать, да это и не является их задачей.
Можно применять разные способы, помогающие в некоторых случаях предъявить улики человеку, подтверждающие факт воровства. В некоторых случаях эти приемы заставят существующие алгоритмы поисковых систем поставить ваш сайт выше, но это совсем другой разговор.
Понятно.
А если спёрта страница целиком, робот может их склеить?
Это же какая база должна быть, чтобы проверять все страницы.
Получается если ты спёр чужую страницу с сайта, то ты можешь её спокойно раскрутить.
Просто я тут на форуме слышал, что когда люди копируют текст, то они меняют 30% текста, зачем это надо всё равно робот не сможет ничего определить.