- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Интересует вопрос,
знаю что поисковики не любят когда одинаковые тексты лежат на разных сайтах.
Какие могут быть санкции? Я слышал, что в таких случаях они плохо ранжируют, или даже ставят сайты на последние позиции. Так ли это?
Если одинаковые материалы, действительно вредны для сайта, и влияют на выдачу в поиске.
как сделать так, чтобы копирование материалов стало не возможным, невыгодным для копирщиков, или возможно чтобы это было наказуемо?
Думаю нужно просто сервис сделать и закреплять текст за автором при первой публикации с возможностью оценки текста другими авторами/юзверами.
Тогда автор - плагиатор будет "осужден" народом в виде понижения его "репы" 🚬
А нормальный автор получит престиж и уважение в интернет сообществе.
P.S. Сори, если палю чью-либо тему :)
как вы себе это представляете технически? размещать на сайте, а Я. скармливать прямой урл статьи через ссылки?
Как раз технически это возможно. Навскидку:
1. Статьи лежат в базе данных, одно из полей таблицы - "IsIndexed", по умолчанию - False.
2. Статьи доступны через список оглавлений, который формируется динамически.
3. При формировании списка проверяется UserAgent, ip, что-нибудь еще, позволяющее идентифицировать пользователя как бота Яндекса.
4. Если пришел Яндекс, добавляем в список все статьи, если обычный пользователь - только уже проиндексированные.
5. Убеждаемся, что Яндекс скушал не только список, но и саму статью и устанавливаем флаг IsIndexed в True.
Где-то так. Не знаю только, не будет ли такое поведение сайта считаться клоакингом.
Не знаю только, не будет ли такое поведение сайта считаться клоакингом.
А чем это еще может считаться? :-) Это клоакинг и есть по определению. Пусть и с благими намерениями..
Не знаю только, не будет ли такое поведение сайта считаться клоакингом.
будет.
10 клоакингов
От людей контент не защитить, это понятно. А можно ли защититься от грабберов?
SEOSPIDER
Итак -
поисковик никак не может регулировать копирования материала, и знать кто является настоящим владельцем текста...
Не существует никак мер защиты текста.
Никто не может защитить текст от копирования.
Значит-
какой смысл создавать уникальные тексты.
Если скорее всего в какой то момент они будут украдены,
защититься или удалить их с сайта на котором они размещаются никто не сможет,
и поисковки если захочет может забанить оба сайта или даже тот, на котором текст был взят изначально.
В чем смысл авторства????
Ну так что, кто ответит в чем смысл оригинальных текстов???
Ну так что, кто ответит в чем смысл оригинальных текстов???
Тут вопрос в другом, а для чего вам вообще нужны тексты, для поисковика или для аудитории вашего сайта? И для чего делается сайт, какие мотивы?
Тут вопрос в другом, а для чего вам вообще нужны тексты, для поисковика или для аудитории вашего сайта? И для чего делается сайт, какие мотивы?
Одно другому не мешает,
сайт делается для людей, а чтобы его находили он делается для поисковика.
Но смысл в оригинальных текстах все равно не вижу,
кто нибудь может ответить по моему пред. сообщению?
Как говорит сам Яндекс, он всеголишь зеркало Рунета.
ИМХО этим они только пытаются замаскировать свою неспособность (может их разработчикам мозгов нехватает...) определять первоисточник.
В принципе хоть какое то подобие определение первоисточника не так сложно реализовать с их мощностями, например по той же дате индексации, при индексации тексты с датой индексации присваиваются определенному урлу (сайту) и хранятся в отдельной базе не зависимой с их базой на которой строится выдача (типа постоянно обновляемого архива), ну и обновляется постоянно, в этом случае даже если сайт выпадает на время, и контент воруют с него, по его возвращению можно будет определить что этот сайт первоисточник, и соответственно выкинуть остальные сайты-воры из выдачи.
Не претендую на истину, но как вариант :)