- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Ну прально! rewrite просто переделай текст, но с тем же смыслом! вот мы на форуме постоянно так делаем, друг у друга списываем)
Я не хочу в данном случае переписывать текст. Я хочу куски местами менять. типа было
аааааа бббббб ввввввв гггггггг дддддддд ееееееее жжжжжжжж зззззззз
и стало
аааааа дддддддд бббббб ееееееее ввввввв жжжжжжжж гггггггг зззззззз
От этого контент станет уникальным или нет?
Честно говоря, спор об уникальности контента для поисковика выглядит бессмысленным без знаний об используемом алгоритме и его параметрах, т.к. для каждого подхода - свое четкое определение дублирования. Например, есть алгоритм шинглов, который оперирует с "кусочками" текста по несколько слов. И сколько вы их не мешайте - дубль будет найден. Есть методы основанные на частотном анализе слов в документе с отбрасываем незначащих слов (есть много способов определять незначащие слова), некоторые из методом могут нормализовывать словоформы. Разнообразие огромное. А как это сделано в гугле - ХЗ, никто не расскажет ;)
Eugen, а мне вот до конца не верится, неужели у гугля что-то из этого реализовано? В интернете миллиарды страниц, и все их нужно обработать таким способом - в любом случае используя поиск подстрок - это же неимоверно огромные вычислительные нагрузки!
И еще, как определяет первоисточник?
azazelka, когда у Вас повылетают страницы с неуникальным контентом, Вы перестанете задавать такие вопросы.
Anton111, у Гугля ничего не реализовано, вы что! Он неуникальные страницы определяет методом тыка, выбрасывает наугад.
От этого контент станет уникальным или нет?
Как повезет. Вернее, уникальным он не станет, ибо нереально поменять местами до полной неузнаваемости, оставив при этом текст читабельным. Но можете попробовать, авось и не вылетите за дубликат.
Как повезет. Вернее, уникальным он не станет, ибо нереально поменять местами до полной неузнаваемости, оставив при этом текст читабельным. Но можете попробовать, авось и не вылетите за дубликат.
Для человека текс идентичный, а для робота - совершенно другой. Вот я и ищу эти критерии, чтобы не мучаться с уникальностью текста, а автоматом его миксировать, оставляя все как есть для человека но делаю текст уникальным для робота...
нет, он не будет уникальным, возможно будет в поиске, но в самой Ж
Вот читал статью как раз на эту тему. Думаю её многие на этом форуме читали.
Во-первых, Дублированный контент - это не процентное соотношение. Процентное соотношение может использоваться в фильтрах. Есть много способов нахождения дублей, например разбивания данного текста на много мелких кусков и ищутся дубли. То есть тут уже процентное соотношение уникального и неуникального не катит.
И ещё мне понравилась одна табличка:
Стпень строгости к дублированному контенту:
Первая степень - идентичность контента и структуры.
Каждая страница на хосте А с путем P (например, URL формы http://A/P) имеет идентичную страницу на хосте B, которая находится на http:/ /B/P и наоборот.
Вторая степень - структурная идентичность, эквивалентный контент.
Каждая страница на хосте А с путем Р, представлена эквивалентной страницей на хосте В с путем http:/ /B/P, и наоборот.
Третья ступень - структурная идентичность, похожий контент.
Каждая страница на хосте А с путем Р, имеет очень похожую страницу на хосте В, расположенную по адресу http:/ /B/P и наоборот.
Четвертая ступень - частичное структурное соответствие, похожий контент.
Некоторые страницы на хосте А с путем Р, имеют страницу на хосте В, по адресу http:/ /B/P и части этих страниц очень похожи.
Пятая ступень - структурная идентичность, родственный контент.
Каждая страница на хосте А с путем Р, имеет страницу на хосте В по адресу http:/ /B/P и наоборот. Страницы находятся в тесной связи друг с другом (например, это оригинальный текст - на одних страницах, и их перевод - на других), но в общем они не идентичны синтаксически.
Несовпадение - ничего из вышеперечисленного.
Наказание:
1 степень - бан
Пример: dmoz/wiki clones
2 степень - бан
Пример: страница состоит из контента другой страницы (страницы результатов поиска).
3 степень - частичное наказание или наложение фильтра в зависимости от степени соответствия дублированного контента
Пример: osCommerce и описания в каталоге производителя
4 степень - возможное наказание и/или наложение фильтра на часть контента, в зависимости от степени соответствия.
Пример: тот же что и в случае 3 - похожий контент и использование CMS
Два форума: один - на phpBB, а другой vbulletin, одинаковые категории, с возможностью постить тот же самый контент, или использование RSS.
5 степень - не стоит волноваться -
Два форума на vbulletin с одинаковыми категориями.
P.S. А дальше сами делайте выводы.
я их и задаю потомучто пока ничего не вылетает