Грядёт новый большой апдейт алгоритма Penguin.

TBAG
На сайте с 28.05.2012
Offline
78
#61

Небольшой обзор: (исх анг. http://www.webpronews.com/google-will-soon-ignore-links-you-tell-it-to-2012-06 )

В прошлом году Гугл запустил алгоритм Панда, цель которого – борьба с некачественным контентом. В этом году к нему присоединился Пингвин, внеся хаос и раздор в среду вебмастеров. Наибольшие изменения произошли в отношении тактик создания ссылочной массы, которые раньше позволяли поднять авторитетность страницы в глазах поисковика, и по слухам все только начинается.

По заявлению разработчиков, Пингвин направлен на улучшение поисковой выдачи. С этим нельзя не согласиться, потому что алгоритм в первую очередь борется со спамом. Если на блог или сайт ссылалось много не качественных заспамленных ресурсов, то это неминуемо отразилось на их позициях. В то же время, множество вебмастеров посчитали свои проекты несправедливо пострадавшими. В стремлении вернуть расположение Гугла они готовы пойти на все, даже на то что бы снять все внешние ссылки.

И судя по последним заявлениям Мэтта Катса, поблажек ждать не следует. Об этом и о многом другом он рассказал на конференции SES в Сан-Франциско, уделив особое внимание Knowledge Graph (Граф знаний), который на днях запускается во всем англоговорящем мире.

Безусловно, на конференции не могли не затронуть вопрос апдейта Пингвина. По словам Катса, вебмастеров еще ожидает встряска выдачи во время последующих апдейтов. Вот его комментарий по этому поводу:

« Я рад более подробно рассказать о следующем апдейте Пингвина. Почему то все постоянно меня об этом спрашивают, как будто ждут, что апдейты Пингвина будут происходить ежемесячно Если вы помните, ввод Панды занял несколько месяцев, причем влияние Панды поначалу было очень сильным, а затем с каждым разом становилось все менее заметным. Это объясняется тем, что работникам Гугла удалось стабилизировать алгоритм, сейчас обновления Панды происходят примерно раз в месяц. Тоже самое сейчас происходит и с Пингвином. Алгоритм еще проходит стадию отладки, разработчики внедряют в алгоритм Пингвин дополнительные сигналы с целью его улучшения. То есть новые апдейты Пингвина займут больше времени, будут учитывать больше сигналов и как следствие, вызовут более сильную встряску выдачи. Не следует ожидать обновлений прямо сейчас.»


«Проходит стадию отладки», «более сильная встряска выдачи», иными словами Гугл дает понять, что все что вы видели было еще цветочками.

Один из читателей, Джош Бачинский в комментариях задал ему вопрос: «Мэтт, не мог бы ты прямо сказать, что нам нужно пофиксить, что бы обновление не застало нас врасплох? Я прошу палить тему, просто намекни: «проверьте ссылки» или «посмотрите HTML на предмет случайных атрибутов Alt с ключевыми словами в них» или «удалите все старые ссылки (поставьте ноуфоллоу)».

Вот что Катс ответил ему в Твиттере:

«Джош, увидел твой комментарий к посту. Насчет ссылок все верно, им надо уделить особое внимание. В принципе, так же как и весь год. Продолжение следует.»

Конечно же, все вебмастера с нетерпением ждут инструмент, помогающий отказаться от ненужных ссылок. С его помощью вебмастер даст поисковику понять, что не хочет, чтобы его контент имел связь с той ссылкой и тем сайтом, который на него ссылается. Этот сервис уже находится в разработке и надеемся, что к тому моменту, когда Пингвин вновь примется за репрессии он уже будет доступен. От этого выиграют не только вебмастера стремящиеся очистить свои ресурсы от спамных ссылок но и сайты, от которых сейчас шарахаются вебмастера, опасаясь лишних ссылок.



---------- Добавлено 22.08.2012 в 09:51 ----------

Интересно, что там за инструмент они предлагают!? Не уж то Гугл будет давать возможность фиксить релевантность контента и ссылок на сайте... да, это было бы великолепно!

http://presite.ru/ (http://presite.ru/) - SMM (http://presite.ru/karta-sayta-1.html) только самые качественные материалы (http://www.presite.ru/#top) по раскрутке сайтов и их оптимизации в поисковых системах (http://presite.ru/index.php?option=com_xmap&sitemap=1&view=xml).
Slavomir
На сайте с 05.12.2005
Offline
107
#62
TBAG:
Не уж то Гугл будет давать возможность фиксить релевантность контента и ссылок на сайте... да, это было бы великолепно!

Я вот не пойму, то такого сложного с введением данного инструмента. Очень сложно дополнительное поле добавить в БД с ссылающимися страницами и сделать в вебмастерс тулз интерфейс по однократному изменению значения данного поля? Думаю и с введением данного значения в формулу релевантности ПС тоже проблем быть не должно. Так в чем же проблема?

Вакансии удаленной работы (http://www.telejob.ru) Найди удаленного исполнителя (http://www.telejob.ru)
[Удален]
#63

ну если раньше были пляски +100 -100 в день и эть были цветочки... Мдяяяя

F
На сайте с 04.12.2010
Offline
170
#64
Slavomir:
А вы сможете определить первоисточник, причем задним числом?

Речь идет о новых ГС. Когда создается очередной ГС и на нем 90 - 100% контента уже есть в сети - зачем такой сайт попадает в индекс??? Или это трудно определить? А среди ГС больше половины - именно такой копирайт. Для таких категорий как Интернет магазин можно сделать исключение.

Slavomir:
Какие бы механизмы ни ввела ПС, не факт, что свободный творец будет о них знать и ими пользоваться.

Свободный творец творит не для поисковиков. Он может даже не знать, откуда приходит траф и что такое SEO. Я таким был совсем недавно (лет 5 назад).

Slavomir:
Увы, это совершенно не реально реализовать.

Вы точно так же не знаете, что "не возможно" сделать, как я не знаю, что "сделать можно". Так что, наверное, вряд ли дискутировать далее на эту тему имеет смысл.

YaanGle
На сайте с 06.09.2011
Offline
155
#65
TBAG:
Небольшой обзор: (исх анг. http://www.webpronews.com/google-will-soon-ignore-links-you-tell-it-to-2012-06 )


---------- Добавлено 22.08.2012 в 09:51 ----------

Интересно, что там за инструмент они предлагают!? Не уж то Гугл будет давать возможность фиксить релевантность контента и ссылок на сайте... да, это было бы великолепно!

как меня радует вывод: "По заявлению разработчиков, Пингвин направлен на улучшение поисковой выдачи. С этим нельзя не согласиться, потому что алгоритм в первую очередь борется со спамом."

О качестве алгоритма надо судить по результату, а не громким заявлениям разработчиков.

Не знаю, как в буржунете, но серпгуглраша полный отстой по коммерции сейчас.

или «посмотрите HTML на предмет случайных атрибутов Alt с ключевыми словами в них»

жесть 😂

Гоша запугал вебмастеров до усрачки, потихоньку превращая их в послушных рабов своих требований 🤣

Slavomir
На сайте с 05.12.2005
Offline
107
#66
Fessen:
Речь идет о новых ГС. Когда создается очередной ГС и на нем 90 - 100% контента уже есть в сети - зачем такой сайт попадает в индекс??? Или это трудно определить? А среди ГС больше половины - именно такой копирайт. Для таких категорий как Интернет магазин можно сделать исключение.

Вероятно потому что ПС не может проиндексировать весь новый сайт сразу, да еще с одновременной индексацией старых сайтов и сопоставлением всего со всем. Это требует времени. А потом уже в действие вступают АГС и его аналог у Гугла.

Fessen:
Вы точно так же не знаете, что "не возможно" сделать, как я не знаю, что "сделать можно".

Извините, но вы говорите полную глупость. Вы просто посчитайте. Возьмем скромный сайт с 1000 страниц размером всего 10 кБ. Чтобы выкачать весь этот небольшой сайт за секунду потребуется пропускная способность канала под 100 Мбит. А теперь представьте, что только на одном сервере таких сайтов может быть от нескольких десятков до нескольких сотен. Какой хостинг обладает такими каналами связи? А если речь идет о сайте, где сотни тысяч страниц в десятки килобайт, то на него одного никаких каналов связи не хватит. А теперь представьте эту ситуацию на стороне серверов ПС, когда эти данные качаются с многих тысяч серверов и многих миллионов сайтов, а еще надо синхронизировать эти данные между серверами ПС.

Straifer1
На сайте с 23.05.2007
Offline
164
#67

Надеюсь они в новом инструменте по снятию ссылок будут подсвечивать плохие ссылки красненьким, а хорошие зелененьким, раз уж их мега алгоритм умеет их определять, и геморроя вебмастерам меньше, гадалку не нужно будет нанимать... 🤪

Slavomir
На сайте с 05.12.2005
Offline
107
#68
Straifer1:
Надеюсь они в новом инструменте по снятию ссылок будут подсвечивать плохие ссылки красненьким, а хорошие зелененьким, раз уж их мега алгоритм умеет их определять, и геморроя вебмастерам меньше, гадалку не нужно будет нанимать... 🤪

Может вам еще и кнопки "Поместить в ТОП10", "Поместить в ТОП5" и "Поместить в ТОП1" сделать? 😂😂😂

Straifer1
На сайте с 23.05.2007
Offline
164
#69
Slavomir:
Может вам еще и кнопки "Поместить в ТОП10", "Поместить в ТОП5" и "Поместить в ТОП1" сделать? 😂😂😂

Нет, ну тут уж я сам справлюсь:)

angr
На сайте с 11.05.2006
Offline
413
#70
Fessen:
Речь идет о новых ГС. Когда создается очередной ГС и на нем 90 - 100% контента уже есть в сети - зачем такой сайт попадает в индекс??? Или это трудно определить? А среди ГС больше половины - именно такой копирайт. Для таких категорий как Интернет магазин можно сделать исключение.

угу, еще и для фармы сделать исключение, описания препаратов не сильно-то уникализируешь...

таких тематик наберется предостаточно, и когда всех внесут в исключения, то что останется?

Требуется СЕО-Специалист в Кишиневе, в офис. ()

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий