Сопли google - почему ?

12
Ripro
На сайте с 04.11.2006
Offline
144
#11
Hol1killer:
Ну страницы не на 100% уники - конечно. Над сайтом работаю постоянно.

Просто там большой ассортимент разбит на 30 категорий по 10-15 продуктов.

У продуктов в этих категориях есть текстовый блок характеристики - они совпадают, что мне на каждом продукте переписывать их ? Это же статистическая информация или скрыть это от ПС? + похожие title и мета описания у продуктов.

Скрывать товары от ПС?! Зачем?

Сгруппируйте похожие товары - те, что отличаются только цветом или весом, но одного бренда, одного типа и сделайте одну страницу для группы. Страниц будет меньше, но их качество возрастет - будет больше информации на странице, меньше дублей на сайте.

W
На сайте с 18.11.2008
Offline
61
#12
102:
То есть дубли и прочая ересь про некачественный контент тут не при чем, а дело в ссылках?

Алгоритм по определению основных страниц,строится как и алгоритм пейдж ранк. Так как оба эти алгоритма присваивают вероятность перехода на данную страницу, как в интернете, так и внутри сайта. Т.е. это где-то 60% влияния. Дальше подключаются другие факторы.

Если мы говорим о внутренней линковки сайта при условии что весомые ссылки идут на морду, то например пагинации будет присвоено большая вероятность, чем странице 3 уровня. Или если сайт со слабым статическим весом и страница где-то допустим на третей странице пагинации на морде, а из раздела на второй - то самой статье будет присвоена очень слабая вероятность. Для этого и линкуют страницы :)

P.S.

Уточните про некачественный контент - что вы имели ввиду?

102
На сайте с 10.11.2008
Offline
53
102
#13

Если упрощено - чем больше кликов от главной (при условии, что ссылочная масса идет на главную), тем меньше вероятность попасть в основной индекс, верно?

wulpus:

Уточните про некачественный контент - что вы имели ввиду?

Я про то, что большинство считает, что в дополнительный индекс попадают страницы с дублированным или малым количеством контента. Я же вижу, что в основном индексе есть куча страниц с одним предложением текста или копированным контентом.

L
На сайте с 11.02.2013
Offline
18
#14
Hol1killer:
Доброго времени суточек :)

Хотел узнать почему у нового сайта ( сделали пару месяцев назад ) - дизайн обыкновенный + норм контент. Всего 300 страниц. Заметил то что очень много страниц в соплях почти 80% - показал 25 страниц норм. Тематика - стройка. Главное - эти 80% страницы продукция компании.

Проверял запросом site:site.ru/& - он еще работает?

Ссылок вообще нету - никаких сап и т.д. Дублей тоже.

Что за дела такие ?

Если дублей действительно нет, то попробуйте банальной загрузкой карты сайты.

Если не помогает - возможно поможет прогон по закладкам (предвижу срач 😡 ). Мне когда-то создание HTML карты и прогон этой страницы по закладкам помог (только не более 200 ссылок). Влетело в индекс за 2 дня.

Если боитесь прогонов или нечем это делать, то можно попробовать каждую страничку из соплей в google+, twitter и FB - но геморно

YD
На сайте с 03.06.2008
Offline
363
#15
lyalyuk:
Влетело в индекс за 2 дня.

Страницы топикстартера итак в индексе, просто в дополнительном. За низкое качество и вес.

W
На сайте с 18.11.2008
Offline
61
#16
102:
Если упрощено - чем больше кликов от главной (при условии, что ссылочная масса идет на главную), тем меньше вероятность попасть в основной индекс, верно?

Да. Так же подходит и для сайта без ссылок. Причем если и попадет то ее ранг будет очень низкий. Например, грубый пример, для наглядности: морда пр3 - разделы и пагинация - 2 - статья 1 (обычно это округленный) т.е. имеет слабый ранг.

Если же ссылочная масса рвет структуру сайта, например определенные страницы, разделы и т.д. То уже ситуация иная и линковка должна быть другой. Короче все индивидуально, впрочем как всегда :)

SM
На сайте с 07.06.2012
Offline
30
#17

Очевидно, что уникальность и полезность и линковка играют свою роль. Но, согласном моему опыту, тут немного иная гипотеза рисуется:

- мой новый сайт гугль слопал за 10-12 дней ~20К страниц

- в соплях было все, кроме 2-3 страниц вместе со стартовой

- через время в основной индекс начал добавлять страницы, грубо, за 1 неделю добавил 200+ новых

Думаю ситуация следующая - сначала некий быстробот жрет контент не пережевывая, затем некий другой по аналогии с желудком сортирует его - что фтопку, а что внутрь организьма :)

Я бы на месте ТС не торопился бы, а подождал результатов переваривания немного дльше.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий