- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
Небольшой обзор: (исх анг. http://www.webpronews.com/google-will-soon-ignore-links-you-tell-it-to-2012-06 )
По заявлению разработчиков, Пингвин направлен на улучшение поисковой выдачи. С этим нельзя не согласиться, потому что алгоритм в первую очередь борется со спамом. Если на блог или сайт ссылалось много не качественных заспамленных ресурсов, то это неминуемо отразилось на их позициях. В то же время, множество вебмастеров посчитали свои проекты несправедливо пострадавшими. В стремлении вернуть расположение Гугла они готовы пойти на все, даже на то что бы снять все внешние ссылки.
И судя по последним заявлениям Мэтта Катса, поблажек ждать не следует. Об этом и о многом другом он рассказал на конференции SES в Сан-Франциско, уделив особое внимание Knowledge Graph (Граф знаний), который на днях запускается во всем англоговорящем мире.
Безусловно, на конференции не могли не затронуть вопрос апдейта Пингвина. По словам Катса, вебмастеров еще ожидает встряска выдачи во время последующих апдейтов. Вот его комментарий по этому поводу:
« Я рад более подробно рассказать о следующем апдейте Пингвина. Почему то все постоянно меня об этом спрашивают, как будто ждут, что апдейты Пингвина будут происходить ежемесячно Если вы помните, ввод Панды занял несколько месяцев, причем влияние Панды поначалу было очень сильным, а затем с каждым разом становилось все менее заметным. Это объясняется тем, что работникам Гугла удалось стабилизировать алгоритм, сейчас обновления Панды происходят примерно раз в месяц. Тоже самое сейчас происходит и с Пингвином. Алгоритм еще проходит стадию отладки, разработчики внедряют в алгоритм Пингвин дополнительные сигналы с целью его улучшения. То есть новые апдейты Пингвина займут больше времени, будут учитывать больше сигналов и как следствие, вызовут более сильную встряску выдачи. Не следует ожидать обновлений прямо сейчас.»
«Проходит стадию отладки», «более сильная встряска выдачи», иными словами Гугл дает понять, что все что вы видели было еще цветочками.
Один из читателей, Джош Бачинский в комментариях задал ему вопрос: «Мэтт, не мог бы ты прямо сказать, что нам нужно пофиксить, что бы обновление не застало нас врасплох? Я прошу палить тему, просто намекни: «проверьте ссылки» или «посмотрите HTML на предмет случайных атрибутов Alt с ключевыми словами в них» или «удалите все старые ссылки (поставьте ноуфоллоу)».
Вот что Катс ответил ему в Твиттере:
«Джош, увидел твой комментарий к посту. Насчет ссылок все верно, им надо уделить особое внимание. В принципе, так же как и весь год. Продолжение следует.»
Конечно же, все вебмастера с нетерпением ждут инструмент, помогающий отказаться от ненужных ссылок. С его помощью вебмастер даст поисковику понять, что не хочет, чтобы его контент имел связь с той ссылкой и тем сайтом, который на него ссылается. Этот сервис уже находится в разработке и надеемся, что к тому моменту, когда Пингвин вновь примется за репрессии он уже будет доступен. От этого выиграют не только вебмастера стремящиеся очистить свои ресурсы от спамных ссылок но и сайты, от которых сейчас шарахаются вебмастера, опасаясь лишних ссылок.
---------- Добавлено 22.08.2012 в 09:51 ----------
Интересно, что там за инструмент они предлагают!? Не уж то Гугл будет давать возможность фиксить релевантность контента и ссылок на сайте... да, это было бы великолепно!
Не уж то Гугл будет давать возможность фиксить релевантность контента и ссылок на сайте... да, это было бы великолепно!
Я вот не пойму, то такого сложного с введением данного инструмента. Очень сложно дополнительное поле добавить в БД с ссылающимися страницами и сделать в вебмастерс тулз интерфейс по однократному изменению значения данного поля? Думаю и с введением данного значения в формулу релевантности ПС тоже проблем быть не должно. Так в чем же проблема?
ну если раньше были пляски +100 -100 в день и эть были цветочки... Мдяяяя
А вы сможете определить первоисточник, причем задним числом?
Речь идет о новых ГС. Когда создается очередной ГС и на нем 90 - 100% контента уже есть в сети - зачем такой сайт попадает в индекс??? Или это трудно определить? А среди ГС больше половины - именно такой копирайт. Для таких категорий как Интернет магазин можно сделать исключение.
Какие бы механизмы ни ввела ПС, не факт, что свободный творец будет о них знать и ими пользоваться.
Свободный творец творит не для поисковиков. Он может даже не знать, откуда приходит траф и что такое SEO. Я таким был совсем недавно (лет 5 назад).
Увы, это совершенно не реально реализовать.
Вы точно так же не знаете, что "не возможно" сделать, как я не знаю, что "сделать можно". Так что, наверное, вряд ли дискутировать далее на эту тему имеет смысл.
Небольшой обзор: (исх анг. http://www.webpronews.com/google-will-soon-ignore-links-you-tell-it-to-2012-06 )
---------- Добавлено 22.08.2012 в 09:51 ----------
Интересно, что там за инструмент они предлагают!? Не уж то Гугл будет давать возможность фиксить релевантность контента и ссылок на сайте... да, это было бы великолепно!
как меня радует вывод: "По заявлению разработчиков, Пингвин направлен на улучшение поисковой выдачи. С этим нельзя не согласиться, потому что алгоритм в первую очередь борется со спамом."
О качестве алгоритма надо судить по результату, а не громким заявлениям разработчиков.
Не знаю, как в буржунете, но серпгуглраша полный отстой по коммерции сейчас.
жесть 😂
Гоша запугал вебмастеров до усрачки, потихоньку превращая их в послушных рабов своих требований 🤣
Речь идет о новых ГС. Когда создается очередной ГС и на нем 90 - 100% контента уже есть в сети - зачем такой сайт попадает в индекс??? Или это трудно определить? А среди ГС больше половины - именно такой копирайт. Для таких категорий как Интернет магазин можно сделать исключение.
Вероятно потому что ПС не может проиндексировать весь новый сайт сразу, да еще с одновременной индексацией старых сайтов и сопоставлением всего со всем. Это требует времени. А потом уже в действие вступают АГС и его аналог у Гугла.
Вы точно так же не знаете, что "не возможно" сделать, как я не знаю, что "сделать можно".
Извините, но вы говорите полную глупость. Вы просто посчитайте. Возьмем скромный сайт с 1000 страниц размером всего 10 кБ. Чтобы выкачать весь этот небольшой сайт за секунду потребуется пропускная способность канала под 100 Мбит. А теперь представьте, что только на одном сервере таких сайтов может быть от нескольких десятков до нескольких сотен. Какой хостинг обладает такими каналами связи? А если речь идет о сайте, где сотни тысяч страниц в десятки килобайт, то на него одного никаких каналов связи не хватит. А теперь представьте эту ситуацию на стороне серверов ПС, когда эти данные качаются с многих тысяч серверов и многих миллионов сайтов, а еще надо синхронизировать эти данные между серверами ПС.
Надеюсь они в новом инструменте по снятию ссылок будут подсвечивать плохие ссылки красненьким, а хорошие зелененьким, раз уж их мега алгоритм умеет их определять, и геморроя вебмастерам меньше, гадалку не нужно будет нанимать... 🤪
Надеюсь они в новом инструменте по снятию ссылок будут подсвечивать плохие ссылки красненьким, а хорошие зелененьким, раз уж их мега алгоритм умеет их определять, и геморроя вебмастерам меньше, гадалку не нужно будет нанимать... 🤪
Может вам еще и кнопки "Поместить в ТОП10", "Поместить в ТОП5" и "Поместить в ТОП1" сделать? 😂😂😂
Может вам еще и кнопки "Поместить в ТОП10", "Поместить в ТОП5" и "Поместить в ТОП1" сделать? 😂😂😂
Нет, ну тут уж я сам справлюсь:)
Речь идет о новых ГС. Когда создается очередной ГС и на нем 90 - 100% контента уже есть в сети - зачем такой сайт попадает в индекс??? Или это трудно определить? А среди ГС больше половины - именно такой копирайт. Для таких категорий как Интернет магазин можно сделать исключение.
угу, еще и для фармы сделать исключение, описания препаратов не сильно-то уникализируешь...
таких тематик наберется предостаточно, и когда всех внесут в исключения, то что останется?