- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вопрос про продвижение сайта статьями.
1) Склеивают ли поисковики две совершенно одинаковые статьи со ссылками на сайт?
2) Насколько статьи должны различаться (одно слово, десяток, разные абзацы), чтобы склейки не происходило
1) Да, бывает !
2) каждое 2-3 слово , как минимум
1) Да
2) Чтобы все было нормально читайте статью и периписывайте своими словами
1) Да
2) Меняйте каждое 9 слово в основной части текста. Тексты ссылок тоже варьировать, заголовки тоже.
Имхо, нет еще у Яндекса таких ресурсов, чтобы в каждую статью вчитываться.
Для размножения вариантов используйте софт
Насчет вычислительных ресурсов согласен. Если в рунете например 1 000 000 стр., то надо провести 1 000 000*1 000 000 сравнений для вычисления плагиата. А ведь страниц гораздо больше! И я могу сказать, что не раз и не два наблюдал в выдаче, как рядом идут страницы с одинаковым содержанием, т.е. вторую страницу никто не банит и из поиска не исключает...
Есть, правда, один интересный момент.
С точки зрения поисковика:
Если на некоторый ресурс ссылаются несколько похожих статей (достаточно обнаружения поверхностной схожести - по частоте слов, по объему текста), то вполне резонно было бы проверить эти статьи на дубликаты путем более глубокого анализа. А глубокий анализ уже может быть достаточно коварным - могут сравниваться скелеты структур предложений, проверяться синонимы, и все в таком духе.
А проверять на дубликаты стоит уже потому, что эти статьи могут являться либо естетсвенными копиями (а ссылка при этом может являться ссылкой на источник), либо плодами деятельности оптимизаторов. В любом случае вес ссылок с них можно безболезненно пессимизировать.
Делает ли так Яндекс уже или пока нет, мне лично неизвестно. Рано или поздно будет, а это значит множить тексты придется только пересказывая их своими словами. Что есть сущий кошмар :)
Яндекс - не знаю, а вот гугля хорошо определяет дубликаты, по порядку слов даже. Вот кое-что про дубликаты и как все это происходит. По-русски велкам в подпись.
Чтобы все было нормально читайте статью и периписывайте своими словами
Оно.
Ну хорошо.
А почему поисковик считает нелогичным то, что несколько ресурсов публикуют совершенно одинаковые статьи со ссылками на источник?
В обычной жизни это довольно таки нормально. Просто каприз владельцев поисковых систем?
Вообще-то поисковик сделан в первую очередь для людей, а не продвижения. Естественно, что он считает нелогичным показывать две совершенно одинаковые статьи пользователю. Ведь можно показать одну и человек подчерпнет знаний именно в ней
А почему поисковик считает нелогичным то, что несколько ресурсов публикуют совершенно одинаковые статьи со ссылками на источник?
А откуда вы это взяли? Будут ссылки на источник - вылезет источник.