- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
![Зачем быть уникальным в мире, где все можно скопировать](https://d.searchengines.guru/20/96/frame_27_600x314__b353b658.jpg)
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Хочу протестировать одно соображение, прошу плохими словами не обзывать, а помочь советами:)
Есть сайт, проиндексированный Гуглом, по своему названию находится на первом месте, но далеко не единственный по соответствующему кейворду.
Задача: могу ли я сделать так, чтобы сайт попал под фильтр за счет того, что я создам на нем же 100 полных дубликатов главной страницы? А если 1000? 10000?
Допустим, я создаю такие страницы, и заставляю Гугл их проиндексировать, поставив на них внешние ссылки. Какими сделать названия страниц и анкоры ссылок? Логично, что как можно менее соответствующие тематике сайта, дабы понизить траст. Допустим, сделаю, и Гуглбот увидит ссылки с анкорами типа "виагра" и "Билл Гейтс" на страницы viagra.html и bill-gates.html соответственно. Начнет их индексировать, и обнаружит, что они на 100% идентичны моей главной странице. И таких сто штук!
Какая будет дальнейшая реакция Гугла? Могу я ожидать какого-то отрицательного эффекта, кроме неочевидно-как-влияющего падения трастовости сайта? В гугловских хелпах нахожу рекомендации делать контент разным, а также следующий тезис:
"Наличие на сайте повторяющегося содержания еще не является основанием для принятия каких-либо мер по отношению к нему, только если оно явно не предназначено для того, чтобы ввести пользователей в заблуждение или манипулировать результатами поиска. "
Как сделать так, чтобы Гугл решил, что я пытаюсь манипулировать результатами поиска? Настучать на себя? Просто тут получается обратный эффект: за счет того, что названия и анкоры ссылок относятся к совершенно другой, не соответствующей сайту тематике, на попытку манипулировать SERP'ом это не похоже. Не лучше ли тогда, получается, наплодить страниц-дубликатов с названиями и ссылками своей тематики?
Заранее спасибо за ответы (если кто что подскажет) - провожу некоторое исследование фильтров Гугла, о результатах отчитаюсь!
sphinx, проводите исследование и не забудьте отчитаться! :)
Есть достаточно много сайтов которые при ошибке 404 редиректят на главную. Так получается неограничено много копий главной страницы. Понаблюдайте за такими сайтами.
Думаю особых фильтров на это нет.
Да кстати - ведь на большинстве сайтов висят одинаковые страницы для 404, т.е. их немеренно (правда не такие же, как на главной), суть в том, что очень много одинакового контента.
К тому же бывает, что очень много страниц сильно похожи друг на друга - на форумах, новостных порталах, ибо стоит какая-то cms.
И ничего - никаких придирок..
Ну 404 это же все-таки редирект - происходит прямое перенаправление на другую страницу, при этом нельзя заставить страницу с несуществующим названием быть проиндексированной Гуглом, хоть тысячу заведомо неправильных ссылок поставь. У меня же вопрос касается реально существующих страниц, при вводе которых в браузере не будет происходить именно перенаправления, а просто будет страница идентичная главной...
уронить чтоли кого то хочешь? слишком примитивно. эффекта не будет. а в ответ можно получить покрепче
По-моему, единственным фильтром будет попадание одинаковых страниц в supplimental index. При этом вы теряете только свое время на создание дубликатов и проставления ссылок на них, больше я не вижу минусов.
ЗЫ: непонятно что вам даст этот эксперимент при любых результатах..
Думаю, что Google оставит часть страниц-дублей в индексе. По моим замечаниям это зависит от количества созданых страниц.
В добавок к вопросу ТС.
Наблюдал такие сайты со страницами-дублями главной. Самое интересное, что PR у страниц был одинаков!!!
Может ли кто-нибудь ответить на вопрос - для того чтобы передался PR просто достаточно создать копию страницы и как-то скормить её Гуглу или нужно сделать что-то ещё?
Есть достаточно много сайтов которые при ошибке 404 редиректят на главную. Так получается неограничено много копий главной страницы
вы про 301 редирект? т.е. если сайт переезжает на новый домен и клеится 301 - это инкубатор своими руками?
у главной страницы "как бы" один урл. о каких копиях идет речь?
Да кстати - ведь на большинстве сайтов висят одинаковые страницы для 404, т.е. их немеренно (правда не такие же, как на главной), суть в том, что очень много одинакового контента.
какой смысл поисковикам индексировать "Страница не найдена", не задумывались?
К сожалению, или к счастью для ТС, фильтра за дублированный контент внутри одного сайта не существует. Так отписались на блоге Google Web Masters. Вот ссылка. Для тех, кто не силен в английском, привожу суть:
- Нет пенальти за дублированный контент в пределах одного домена (на своем опыте проверено, что и на субдоменах можно размещать дубли страниц основного домена).
- Есть пенальти за дублированный контент на разных доменах.
- Гугл старается не держать в индексе дубли контента и сам выбирает из дублей "основной" (касается одного домена, что происходит с дублями на разных, думаю и так все знают).
Вот такие вот пироги. Из своего опыта скажу, что дубль в пределах одного домена никак не влияет на сайт. На одном из проектов стоит CMS, которая, хочешь или нет, создает кучу дублей страниц.
разместил три копии статики (15 000 товаров) на поддоменах, только разный заголовок (в рамках поддомена), индексировал гугл отлично всё (выбирает на основе релевантности). никого фильтра.
Bix все верно расписал.