Sower

Sower
Рейтинг
661
Регистрация
30.12.2009
ReWeb:
Раньше существовал некий фильтр "supplemental results". Страницы, попавшие в него, исключались из первичного поиска. После того, как этот фильтр был упразднён, чтоб иметь возможность вести "умные" разговоры ни о чём, часть оптимизаторов, не имеющих серьёзных знаний по сео, но желающих представить себя знатоками в этой области, стали называть соплями страницы сайтов, не показывающиеся по запросу site:url.ru/*, одновременно окрестив их как дополнительный индекс. Страницы этого дополнительного индекса, так же как и страницы индекса названного основным, доступны для первичного поиска в равной степени и не имеют ни каких ущемлений либо пессимизаций со стороны поисковика. Соотношение количества страниц основного и дополнительного индексов, в данном случае, можно сравнить с соотношением количества волос на груди и спине армянина. Это число можно просчитать, но полученные данные не могут сказать ровным счётом ни о чём. Как говорится, лишь было б только о чём поговорить, когда больше говорить не о чем. :)

Во-во.. Пока одни делом занимаются, другие сопли высчитывают. :D

Elven:
И то, что более 80% всего поискового трафика с Гугла приходится именно на страницы из "несуществующего основного индекса" - всего лишь совпадение ;)

Самые богатые люди попадают в рейтинг журнала "Форбс", или люди попавшие в этот рейтинг становятся самыми богатыми? :D

Не нужно путать причину со следствием. Можно полить трафик на страницу, называемую некоторыми "сопливую", и она покажется при поиске со звёздочкой. Только лучше она от этого не станет, и трафа на неё с поисковика больше не побежит. :)

stundr:
кстати, я правильно понимаю что после апа ПР надо ждать изменений в выдаче?

Нет. Сейчас выставили те значения, которые были недели 2-3 назад.

Всё по старому, что уже гуд.

А что такое "сопли" для гугла и что они делают с сайтом?

kievrent:
Сам наблюдаю в топе морды, где ключ 2-3 раза повторяется и сама морда на 1,5-2к символов (видимо Гоша пошел по принципу "чем меньше слов - тем больший вес они имеют" :D ).

Да, тоже заметил такое. Писал об этом здесь. Какой делаем вывод? Влияние и важность внутренней оптимизации летит к чертям? :)

Константинович:
только вот с соплями будут проблемы

Какие будут проблемы и с чем?

Можно самому запретить кеширование страницы мета тегом, при этом все ссылки будут передавать всё что нужно.

DiAksID:
наличие песочницы в ру-сегменте Гугла обсуждалось неоднократно 🚬

Я давно не делал сайты в ру сегменте, и то, о чём я написал, не имеет отношение к классической песочнице. :)

metaContent:
Занимайтесь хорошими сайтами!

Я занимаюсь только хорошими сайтами, приносящими прибыль! Лепить сео блоги и литературные обозреватели мне не интересно. :)

Последний сайт сделал по коммерческой, но не очень конкурентной тематике, в которой трафа более 100K в сутки, но вордтрекер искусственно занижает это число в 20 раз. Такую вот жирную жилку нашёл. :D

monia:
Значит все разговоры о том, что google склеивает одинаковые анкоры - миф?

Это кто такое сказал? Первый раз слышу о склейке анкоров. :)

Чем больше одинаковых анкоров, тем выше должен ранжироваться сайт по данному ключу, но это теоретически. На самом деле, палка о двух концах. С появлением большого количества одинаковых анкоров срабатывает другая часть алгоритма, отправляющая сайт под фильтр. Чем больше разнообразных анкоров, тем безопасней продвижение сайта. Какой допустимый процент одинаковых анкоров гугл держит в секрете. Я стараюсь не переходить границы 10%, используя под остальные 90% список из нескольких сот околотемных анкоров. Пока Бог миловал.

Всего: 7890