- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Сейчас некоторые так называемые парсильщики, которые парсят все, что угодно - от каталогов, досок объявлений, форумов до статей начинают жаловаться, что на их сайтах падает трафик. У меня такое впечатление, что Яндекс начал бороться с воровством контента. Есть и свои наблюдения некоторые.
Пока я вижу только один механизм: разница во времени индексации. Если между проиндексированной только что страницей разница с такой же точно достаточно большая по времени - она ворованная. Если разница небольшая (какая - черт его знает), определить трудно.
Мне кажется бороться с воровством контента в он-лайн можно достаточно просто, но для этого Яндексу и другим надо иметь бОльшие мощности, например:
1) Автор создает скрытую страницу с новой статьей/новостью... или список URLов с такими страницами.
2) Добавляет в Яндекс через специальную форму.
3) В течение нескольких минут приходит робот и индексирует.
4) Автор открывает статьи для чтения всеми.
Позже страница проходит проверку на уникальность и есть она действительно свежая, то своровать ее уже будет нельзя т.к. при добавлении её же в Яндекс он определит, что такая уже есть и присвоит этой странице занижающий коэффициент при ранжировании (например).
Оперативно и надежно. Если человек спер эти статьи иначе - это уже не дело ПС, тут офф-лайн разборка должна быть что и как.
Разумеется, должна быть защита от злоупотреблений.
Это в общих чертах... мне кажется такой механизм реален в будущем.
Если у кого есть мысли - пишите, интересно поговорить.
Прошу без флуда и анонимных оскорблений в личку.
на 100 % поддерживаю....
но только при чем тут Яндекс???
ну нет у него таких задачь....
правда, если это реализуют в каком-либо виде, получат благодарность от честных людей
Ну, я имел ввиду все поисковые системы. В принципе это может быть единая служба, куда добавляешь контент и оттуда уже он расслается по поисковикам. :)
Ну, я имел ввиду все поисковые системы. В принципе это может быть единая служба, куда добавляешь контент и оттуда уже он расслается по поисковикам. :)
тогда это читаем как призыв сделать службу над поисковиками, следящую за копирайтом?☝
тоже поддерживаю
но.... кто будет ее финансировать?
поисковикам не нужен этот ге-ор, а авторов не организовать....
+1.
1) Автор создает скрытую страницу с новой статьей/новостью... или список URLов с такими страницами.
2) Добавляет в Яндекс через специальную форму.
3) В течение нескольких минут приходит робот и индексирует.
4) Автор открывает статьи для чтения всеми.
Статьи только оптимизаторы пишут? :) Это я к тому, что вся эта трудоёмкая возня не всем интересна.
2) Добавляет в Яндекс через специальную форму.
Яндекс.Новости эту задачу уже выполняют, но на процентов ~30%, и требуют наличия некоторого количества серого вещества.
Но, в целом, только "За", если установят контроль за первоисточниками контента.
+1.
Статьи только оптимизаторы пишут? :) Это я к тому, что вся эта трудоёмкая возня не всем интересна.
Согласен. Все таки статьи пишутся не для поисковых систем, соответсвенно это задача ПС - правильно определять релевантный источник информации, причем релевантный - в широком смысле этого слова, а не только по совпадению некоторых слов запроса и статьи.
Кстати, да. А что с обычными влаельцами сайтов делать? Которые особо не занимаются раскруткой.
Пример: человек выложил самописный текст, не зная совершенно о такой системе регитрирования текстов. Через некоторое время кто-то его оттуда стянул и зарегил в поисковике. Вор оказывается владельцем контента. Причём законный владелец
А что делать, например, огромным новостным ресурсам? Им каждый день по несколько сот страниц текста забивать в поисковики?
dex:
Я имел ввиду не службу над поисковиками, а единый центр постинга урлов новых страниц, чтобы в несколько десятков поисковиков по отдельности их не слать.
Гроссмейстер: оптимизаторы статьи не пишут - они пишут всякую ернунду в 90% случаев. Статьи пишут грамотные люди, иногда даже талантливые копирайтеры :)
Дело в том, что кроме оптимизаторов есть еще куча народу, которая парсит контент, немного потимизирует его и собирает траф. Сайты под гугл/директ/бегун, от которых просто тошнит уже... за...ли весь интернет.
Кстати, да. А что с обычными влаельцами сайтов делать? Которые особо не занимаются раскруткой.
Господ раскрутчиков эта фича касается меньше всего.
Незнание законов не освобождает от ответственности. Поэтому, надо читать хелпы ПС, и вообще это в одночасье не делается, это очень долгая работа с такой системой борьбы с воровством.
А что делать, например, огромным новостным ресурсам? Им каждый день по несколько сот страниц текста забивать в поисковики?
У них достаточный штат. Написал статью - отравил урл. Статью он пишет 30 мин, отправка урла - 15 сек. Посчитайте сколько процентов времени на это уйдет в сутки ;)
dex:
Я имел ввиду не службу над поисковиками, а единый центр постинга урлов новых страниц, чтобы в несколько десятков поисковиков по отдельности их не слать.
Гроссмейстер: оптимизаторы статьи не пишут - они пишут всякую ернунду в 90% случаев. Статьи пишут грамотные люди, иногда даже талантливые копирайтеры :)
Дело в том, что кроме оптимизаторов есть еще куча народу, которая парсит контент, немного потимизирует его и собирает траф. Сайты под гугл/директ/бегун, от которых просто тошнит уже... за...ли весь интернет.
1 - описана как раз служба над (параллельно) поисковиками
2 - от этой тошноты не спасет эта служба (центр как Вы назвали) - ведь - цитирую - парсит контент, немного потимизирует его и собирает траф - могут и много и средне - будет уникальный - ценен не измененный роботами, он и подпадает под копирайт, его и надо беречь!