Есть ли фильтр за неуникальный (в рамках одного сайта) контент, и как бы его поймать?

S
На сайте с 02.06.2008
Offline
16
1250

Хочу протестировать одно соображение, прошу плохими словами не обзывать, а помочь советами:)

Есть сайт, проиндексированный Гуглом, по своему названию находится на первом месте, но далеко не единственный по соответствующему кейворду.

Задача: могу ли я сделать так, чтобы сайт попал под фильтр за счет того, что я создам на нем же 100 полных дубликатов главной страницы? А если 1000? 10000?

Допустим, я создаю такие страницы, и заставляю Гугл их проиндексировать, поставив на них внешние ссылки. Какими сделать названия страниц и анкоры ссылок? Логично, что как можно менее соответствующие тематике сайта, дабы понизить траст. Допустим, сделаю, и Гуглбот увидит ссылки с анкорами типа "виагра" и "Билл Гейтс" на страницы viagra.html и bill-gates.html соответственно. Начнет их индексировать, и обнаружит, что они на 100% идентичны моей главной странице. И таких сто штук!

Какая будет дальнейшая реакция Гугла? Могу я ожидать какого-то отрицательного эффекта, кроме неочевидно-как-влияющего падения трастовости сайта? В гугловских хелпах нахожу рекомендации делать контент разным, а также следующий тезис:

"Наличие на сайте повторяющегося содержания еще не является основанием для принятия каких-либо мер по отношению к нему, только если оно явно не предназначено для того, чтобы ввести пользователей в заблуждение или манипулировать результатами поиска. "

Как сделать так, чтобы Гугл решил, что я пытаюсь манипулировать результатами поиска? Настучать на себя? Просто тут получается обратный эффект: за счет того, что названия и анкоры ссылок относятся к совершенно другой, не соответствующей сайту тематике, на попытку манипулировать SERP'ом это не похоже. Не лучше ли тогда, получается, наплодить страниц-дубликатов с названиями и ссылками своей тематики?

Заранее спасибо за ответы (если кто что подскажет) - провожу некоторое исследование фильтров Гугла, о результатах отчитаюсь!

G
На сайте с 01.08.2007
Offline
51
#1

sphinx, проводите исследование и не забудьте отчитаться! :)

D2
На сайте с 24.10.2005
Offline
96
d12
#2

Есть достаточно много сайтов которые при ошибке 404 редиректят на главную. Так получается неограничено много копий главной страницы. Понаблюдайте за такими сайтами.

Думаю особых фильтров на это нет.

англоязычный сайт знакомств за 5 минут (http://www.owndating.ru/?id=500011787)
BD
На сайте с 11.06.2008
Offline
35
#3

Да кстати - ведь на большинстве сайтов висят одинаковые страницы для 404, т.е. их немеренно (правда не такие же, как на главной), суть в том, что очень много одинакового контента.

К тому же бывает, что очень много страниц сильно похожи друг на друга - на форумах, новостных порталах, ибо стоит какая-то cms.

И ничего - никаких придирок..

Аудит безопасности сайтов (http://ahack.ru)
S
На сайте с 02.06.2008
Offline
16
#4

Ну 404 это же все-таки редирект - происходит прямое перенаправление на другую страницу, при этом нельзя заставить страницу с несуществующим названием быть проиндексированной Гуглом, хоть тысячу заведомо неправильных ссылок поставь. У меня же вопрос касается реально существующих страниц, при вводе которых в браузере не будет происходить именно перенаправления, а просто будет страница идентичная главной...

S
На сайте с 23.04.2004
Offline
53
#5

уронить чтоли кого то хочешь? слишком примитивно. эффекта не будет. а в ответ можно получить покрепче

T
На сайте с 28.06.2007
Offline
61
#6

По-моему, единственным фильтром будет попадание одинаковых страниц в supplimental index. При этом вы теряете только свое время на создание дубликатов и проставления ссылок на них, больше я не вижу минусов.

ЗЫ: непонятно что вам даст этот эксперимент при любых результатах..

V
На сайте с 05.08.2008
Offline
72
#7

Думаю, что Google оставит часть страниц-дублей в индексе. По моим замечаниям это зависит от количества созданых страниц.

В добавок к вопросу ТС.

Наблюдал такие сайты со страницами-дублями главной. Самое интересное, что PR у страниц был одинаков!!!

Может ли кто-нибудь ответить на вопрос - для того чтобы передался PR просто достаточно создать копию страницы и как-то скормить её Гуглу или нужно сделать что-то ещё?

Кто рано встаёт, тот мало зарабатывает!!!
Б
На сайте с 13.11.2008
Offline
38
#8
d12:
Есть достаточно много сайтов которые при ошибке 404 редиректят на главную. Так получается неограничено много копий главной страницы

вы про 301 редирект? т.е. если сайт переезжает на новый домен и клеится 301 - это инкубатор своими руками?

у главной страницы "как бы" один урл. о каких копиях идет речь?

B3CH3D:
Да кстати - ведь на большинстве сайтов висят одинаковые страницы для 404, т.е. их немеренно (правда не такие же, как на главной), суть в том, что очень много одинакового контента.

какой смысл поисковикам индексировать "Страница не найдена", не задумывались?

BX
На сайте с 25.04.2008
Offline
40
BiX
#9

К сожалению, или к счастью для ТС, фильтра за дублированный контент внутри одного сайта не существует. Так отписались на блоге Google Web Masters. Вот ссылка. Для тех, кто не силен в английском, привожу суть:

- Нет пенальти за дублированный контент в пределах одного домена (на своем опыте проверено, что и на субдоменах можно размещать дубли страниц основного домена).

- Есть пенальти за дублированный контент на разных доменах.

- Гугл старается не держать в индексе дубли контента и сам выбирает из дублей "основной" (касается одного домена, что происходит с дублями на разных, думаю и так все знают).

Вот такие вот пироги. Из своего опыта скажу, что дубль в пределах одного домена никак не влияет на сайт. На одном из проектов стоит CMS, которая, хочешь или нет, создает кучу дублей страниц.

Хотите продвигать сайты быстро и дешево? Я БЕСПЛАТНО научу как! Регистрируйтесь (http://bybix.com/art_li.php) и спрашивайте! Нужен качественный безлимитный хостинг? Вот лучшее решение (http://bybix.com/hosting.php)! Суппорт понимает на русском!
forfun
На сайте с 31.07.2006
Offline
129
#10

разместил три копии статики (15 000 товаров) на поддоменах, только разный заголовок (в рамках поддомена), индексировал гугл отлично всё (выбирает на основе релевантности). никого фильтра.

Bix все верно расписал.

Каталог услуг по настройке сайтов и веб-систем (https://www.nksystems.ru) // Каталог услуг по настройке интернет-рекламы (https://nkads.ru) || {Я.Пробивки (http://tools.promosite.ru/?from=8879)} || Сердитый хостинг за 118р./месяц (https://www.hostland.ru/?r=461d4a2c)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий