- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева

Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Первый и основной признак - это низкое качество материалов сайта и в частности тех страниц, которые попадают в дополнительный индекс.
Вам уже написали и я согласен, ссылками в основном индекс вытаскивается любая страница.
Второй фактор - это внешние ссылки. Если со страниц сайта продаётся много ссылок, страница улетает в сопли.
А если ссылки не продажные? Много это сколько? По вашему получается что любая директория сайтов будет в соплях. У меня много примеров, когда качественные каталоги чувствуют себя очень даже хорошо. Да и просто страница с ссылками будет в соплях, если следовать вашей логике.
Вы путаете с несколько другим явлением. Сам я его не наблюдал, но люди пишут. Так вот, страница может быть где-то за сотые места по запросу, причем улететь туда из ТОПа, но при этом она будет в основном индексе. Если страница не выдается по какому-то запросу, это не сопли.
Но ведь точно так же можно и загнать в сопли страницу с уникальным текстом, купив не качественных ссылок, даже с пиаристых доноров. ПР то он разный бывает.
Давайте проведем эксперимент на моих сайтах. Вы будете загонять проставлением ссылок страницы моих сайтов в сопли :)
В рунете, в неконкурентной нише, песочница наблюдается редко. А вот там, где есть конкуренция, - чаще.
Кто-нибудь мне ответит, что такое песочница? То как я это представляю, либо работает на всех запросах, либо вообще не работает. Да и в рунете я не наблюдал песок. Но это лишь на примере одного сайта.
Вам уже написали и я согласен, ссылками в основном индекс вытаскивается любая страница.
С этим утверждением я и не спорю. :) Это очевидно и понятно. Я говорю о том, как страница может попасть в сопли, а не о том, как её вытаскивать оттуда.
А если ссылки не продажные? Много это сколько? По вашему получается что любая директория сайтов будет в соплях. У меня много примеров, когда качественные каталоги чувствуют себя очень даже хорошо. Да и просто страница с ссылками будет в соплях, если следовать вашей логике.
Вы путаете с несколько другим явлением. Сам я его не наблюдал, но люди пишут. Так вот, страница может быть где-то за сотые места по запросу, причем улететь туда из ТОПа, но при этом она будет в основном индексе. Если страница не выдается по какому-то запросу, это не сопли.
У меня другое мнение. И другой опыт. Начнём с первых двух вопросов. Даже если ссылки не продажные, но ведут на не качественные ресурсы, по мнению гугла, то страница может попасть в сопли. Много - для каждого ресурса по-разному. Для нового сайта, например, будет достаточно 5 -7 ссылок, проставленных в один -два дня и страница может уйти в дополнительный индекс.
Игорь ( Родной Портал) добавил 28.07.2010 в 10:45
Давайте проведем эксперимент на моих сайтах. Вы будете загонять проставлением ссылок страницы моих сайтов в сопли
Хороший эксперимент. :) Я его уже проводил, а вернее наблюдал на примерах разных сайтов. Нет ничего сложного. возьмите сами 2-3 страницы вашего сайта, которые находятся в основном индексе, купите на них 2-3 ссылочки с заспамленных УГ ресурсов, ГС-ов или плохой сетки, и сами всё увидите. В сопли уйдут не только те страницы, на которых вы будете экспериментировать, но и возможно другие страницы сайта.
Много - для каждого ресруса по-разному. Для нового сайта, например, будет достаточно 5 -7 ссылок, проставленных в один -два дня и страница может уйти в дополнительный индекс.
Вы чрезвычайно усложняете ситуацию. До сих пор не понятно определяет ли тематику сайта/страницы гугл или нет. А Вы хотите чтобы он еще выдумывал классификацию по которой высчитывается допустимое количество ссылок. Если к сайту прикручен хороший каталог сайтов, то за это весь сайт в баню или только страницы с ссылками?
Вики кстати по этом параметру в ауте должна быть. Там ссылок очень много бывает.
Но дело конечно же Ваше. Хотите считать что сопли это санкция, ваше право :) Только получается под санкции попадает любой сайт. Сопли на мой взгляд, это попытка гугла облегчить себе работу. Все же легче найти релевантный ответ среди 1 млн страниц, чем среди 10 млн. Это оптимизация его алгоритма, не более.
возьмите сами 2-3 страницы вашего сайта, которые находятся в основном индексе, купите на них 2-3 ссылочки с заспамленных УГ ресурсов
Ну нет уж, чтобы доказывать себе то, чему я не верю, да за свои деньги... :)
Вы чрезвычайно усложняете ситуацию. До сих пор не понятно определяет ли тематику сайта/страницы гугл или нет. А Вы хотите чтобы он еще выдумывал классификацию по которой высчитывается допустимое количество ссылок. Если к сайту прикручен хороший каталог сайтов, то за это весь сайт в баню или только страницы с ссылками?
Вики кстати по этом параметру в ауте должна быть. Там ссылок очень много бывает.
Но дело конечно же Ваше. Хотите считать что сопли это санкция, ваше право :) Только получается под санкции попадает любой сайт. Сопли на мой взгляд, это попытка гугла облегчить себе работу. Все же легче найти релевантный ответ среди 1 млн страниц, чем среди 10 млн. Это оптимизация его алгоритма, не более.
:) Не усложняю, а пробую отобрать зёрна от шелухи, ум пытливый. ;)
Сначала нам надо определить причины и факторы попадания страниц в сопли, пусть это будет разный наш опыт, но мы сможем потянуть более менее приемлемую картинку и уже потом, основываясь на примерах вести дискуссию. Если я вижу, что большинство из перечисленных мною факторов по попаданию страниц в дополнительный индекс работают, при этом служебные команды, aol, и т.д, дают мне подтверждающую информацию, то и все сомнения отпадают. Это сопли.
Давайте назовём это «шмарклями», только как-то назовём, чтобы не плавать вокруг да около. :)
Я уверен, что Google определяет тематику.
Классификации по количеству ссылок безусловно нет, но по практике, критическая цифра 5-7 ссылок и больше. Надо же от чего -то исходить, от каких -то цифр, Google нам никогда и не скажет чётко это число, он нам не поможет.
Вы приводите в пример каталоги, я думаю это отдельный разговор, с отдельной структурой сайт и Google отличает каталог от простого сайта, возможно, и соответственным образом относится к сайту.
Для Вики и придумали нофоллоу и хоть это рекомендационная команда гугла, но именно она и помогает ей не быть такой заспамленной, как она выглядит на первый взгляд.
Всё правильно - это оптимизация его алгоритма. Да вот только мы должны знать, что делать для того, чтобы попробовать повлиять на эти алгоритмы, где и как это дело обойти, мы ж оптимизаторы, не? ;)
:)Сначала нам надо определить причины и факторы попадания страниц в сопли
Имхо, страницы при малом весе выкидываются из основного индекса, для облегчения работы гугла. А уникальность контента, затормаживает этот процесс. Особенно это хорошо заметно по высоко конкурентным запросам.
Это и подтверждают ваши наблюдения, если повесить на страницу с маленьким весом кучу внешних сылок, то весь вес утекает, отсюда и улет.
И, если направить страницы с большими ПР на "сопливую" странцу, то вес страницы увеличивается, благодаря чему, она выходит из соплей, опять вне зависимости от уникальности контента.
имхо, очень спорное мнение, разграничивать тип сайтов для разного ранжирования...
Тема обречена, а так интересно все начиналось...
имхо, очень спорное мнение, разграничивать тип сайтов для разного ранжирования...
Спорное, конечно. :)
Как и сабж этой темы.
Игорь ( Родной Портал) добавил 28.07.2010 в 13:07
Тема обречена, а так интересно все начиналось...
Так таких тем можно начать с десяток.
Примеры : " Google - не ПС" , " Ранжирования нет", " ТОП -выдумка" ... и т.д. ;)
Так таких тем можно начать с десяток.
Примеры : " Google - не ПС" , " Ранжирования нет", " ТОП -выдумка" ... и т.д. ;)
Мне просто интересно было послушать доказательства ТС о не существовании саплиментал индекса...
По порядку
Я уверен, что Google определяет тематику.
да гуголь это делает. И основано это на принципеально приблизительно одинаковом принципе организации всех систем связанных с поиском
для этого доствточно просто почитать, что гуголь сам пишет
При этом техст разбивается на фрагменты и слова, которые хранятся как бы в отдельгых "ячейках"
И на основании этого определяется тематика как отдельных страниц, так в принципе и сайта в целом
webcat добавил 28.07.2010 в 14:12
Снаяала вы мне скажите, что вы понимаете под словом "индех Гугля"
Я справшиваю это не из вредности, а что бы понять, как лучше построить объяснение.
Мне просто интересно было послушать доказательства ТС о не существовании саплиментал индекса...
Согласен! :) И про песок комменты получить. Разрушать мифы это правильно! Но обоснование, вот что главное.