- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Я планирую на одном из сайтов разместить секцию собственных статей для создания "уникального контента", который так ценется Гуглем.
Но, к сожалению, все, что попадает в открытый доступ, имеет высокие шансы лишится уникальности.
Если у меня в разделе будет, предположим, 20 уникальных статей, а потом их постепенно начнут воровать владельцы других сайтов, то получится, что моя секция статей утратит свою уникальность.
Будет ли Гугл мои страницы после того, как опубликованные на них статьи появятся еще на множестве сайтов, считать первоисточником этих статей (читай -- этого контента) и продолжать давать им определенный бонус, или же ему все равно, и рано или поздно мой контент (на создание которого было потрачено много ресурсов) станет обычным seo-мусором, которого сейчас полно в сети?
Мне кажется что никаких бонусов тут не должно быть и ему все равно.
Режь статьи на части, вставляй в них абсолютные адреса и картинки с абсолютными адресами... или расти быстрее конкурентов, например не 20 всего, а 20 в неделю ;).
Делай так, как описали выше. Но в любом случае никто не гарантирует, что после того, как твои статьи окажутся на сильно ПРистом сайте, именно твой сайт будет висеть в выдаче хотя бы по названию статьи... 🚬
Cossack, это понятно... И все же? Ладно, перефразирую:
попаду ли я под dublicate content filter, если мою статью републикуют еще 50-100 сайтов?
Кроме статьи, на странице много другого контента может быть... например: меню, анонсы и новости, которые займут процентов 30%...
ничего эта фишка не даст
во первых все запросы уже окучены ( ну не будут-же набирать в поиске запрос в полстатьи)
во вторых - все на равных правах ( перед фильтрами все равны относительно )
в третьих и уникальность как таковую тебе не создать ( это тебе надо заглянуть в будущий век и оттуда стибрить ) :)
Поисковику должно быть все равно, он не отличает первоисточник, над проблемой copyright-а должен думать сам автор.
Защита контента не всегда помогает (выдернуть можно в любом случае), но снизит кол-во "воров".
нет ребята - вы все мыслите неправильно ..Казак в том-же числе
Нет для поисковиков уникального контента как такового.
Уникальность контента-это не более чем уникальность запроса юзера.
Опа... приплыли ;)... Интересно, а в чем уникальность?
так я же сказал - в уникальности запроса