Slavomir

Slavomir
Рейтинг
107
Регистрация
05.12.2005
Fessen:
Таких людей пингвин и сейчас наказывает. Сколько было сообщений о накладывании фильтра через 1 - 2 недели, после редиректа.
В том сообщении шла речь о тех, кто словил фильтр -> все исправил -> сделал редирект -> вышел из под фильтра -> и жил счастливо. А теперь их сайты колбасит.

А может быть поделом колбасит? Обратите внимание, то Гугл рекомендует в качестве анкора ссылок использовать бренд. Вам это ни о чем не говорит? Вы себе можете представить, что какая-то из известных торговых марок из-за взбрыкивания какой-то поисковой системы начала переносить свой сайт с домена на домен? И как поисковая система должна относиться к тем, кто так поступает?

Вот мой сайт:

Referring domains 824

External BackLinks 8,547

Indexed URLs 23,319

Citation flow 47

Trust flow 46

25 апреля потеря 2/3 трафика с Гугла. Трафик остался исключительно по случайным НЧ. Главная страница по моим ВЧ плавает в районе 500 страницы.

Взял первые три сайта из топа по одному ВЧ

Referring domains 97

External BackLinks 277

Indexed URLs 118

Citation flow 31

Trust flow 21

Referring domains 493

External BackLinks 263,771

Indexed URLs 842,381

Citation flow 46

Trust flow 30

Referring domains 180

External BackLinks 341

Indexed URLs 12

Citation flow 15

Trust flow 17

В общем, ваша теория идет в мусорную корзину. А вот мои наблюдения подтверждаются полностью. В топе сидят либо сайты, которые практически не продвигались, либо сайты с очень большим количеством страниц.

femida4me:
Вот сейчас 3 гига льется на нашу сетку, по видимому - именно в позициях хотят урезать.
Антиддос конторы, это миф или реально надежно?

С такой атакой не сталкивался. Подозреваю, что заказчику атаки это обошлось в очень приличную сумму. В моем случае с атакой где-то в 80 Мбит с кратковременными пиками в 500 Мбит сторонний сервис помогал очень эффективно, но только до тех пор, пока не прописал в DNS MX-запись для почты. В результате атаку переключили напрямую по IP. Пришлось переехать на хостинг с защитой. Если будете идти по пути сторонних сервисов, не совершайте моей ошибки. Сразу настраивайте почтовые ящики на корпоративную почту Гугла. И будьте готовы быстро сменить IP сервера или переехать на другой хостинг, если боты начнут атаковать по IP по старой памяти. В найденных мною сервисах цены на защиту от атаки от гегабита были исключительно договорные.

---------- Добавлено 06.08.2012 в 14:14 ----------

Strelnikov:
Вы только что сами ответили на свой вопрос и решили проблему:) Если задаться целью, то нужно найти опытного, профессионального программиста, он все сделает. За очень большие деньги. Но вообще, надо просто помнить, что стоимость защищаемой информации должна быть выше средств, которые вы затратите на защиту.

Сразу видно голого теоретика. Если у вас мощный сервер и отличное ПО на нем, которое невозможно завалить количеством запросов, вам просто начнут забивать входящий канал. Внутри сервера это уже никак не решается. Нужно фильтровать трафик на подступах к нему, где каналы еще широкие. Без сторонних сервисов этот вопрос не решается в принципе.

Strelnikov:
Страницы могут выпадать из индекса довольно долго, тут как повезет. Но в любом случае это нехорошо, - если есть возможность, закройте брешь в безопасности, потому что такая ситуация может легко повториться в будущем. И что, каждый раз бояться, как бы страницы из индекса не вылетели и позиции не упали? Проблемы надо решать фундаментально.

Извините, а как вы предлагаете "закрыть брешь"? Я уже прошел через все этапы этого процесса и могу сказать, что вопрос этот очень не простой и не дешевый, а главное, совершенно не гарантированный. Если серьезно возьмутся, то все равно завалят. Одно успокаивает, что в данный момент потенциальному заказчику успешная DDoS атака обойдется на порядок-два дороже, чем мне защита, а защититься я смогу гораздо оперативнее, чем ранее.

Все зависит от интереса ПС к сайту и везения. Вполне может хватить и 1-2 дней, чтобы недоступные роботу страницы выпали из индекса. Каковы будут последствия после возвращения в индекс тоже доподлинно не известно. В теории считается, что ПС не любят, когда доступ к сайту нестабилен, но организация сети Интернет по определению не гарантирует никакой стабильности. В моем случае выпавшая в результате атаки главная страница после возвращения в индекс вернулась на прежние места в выдаче.

Вообще, посчитайте, сколько вы теряете в результате недоступности сайтов. Может быть вам целесообразно воспользоваться сторонним сервисом по фильтрации трафика или хостингом с защитой от DDoS.

zolotivan:
пандопингвин настиг где-то в конце июня.
В последнюю неделю одно из самых интересных наблюдений: количество поисковых запросов в ВМТ медленно растет (беру за последний месяц). При этом ни трафика, ни позиций, по ранее основным запросам, нет :(

Кто-нибудь наблюдает такое же?

В каком-то топике пробегало, то если вы посмотрите тот же отчет, но с фильтром поиска по картинкам, то получите старые значения.

Nadejda:
ну да, пользователя заставлять грузить мегабайты это не издевательство?😂

особенно мой модем в закарпатье:(...долго грузится страница, убиваем ее, идем назад в поисковик жмем следующую ссылку

Я про это и говорю. Тенденция идет к тому, что то, то хорошо для пользователя становится плохо для поисковой системы. Пользователь не должен сразу получить ответ на свой вопрос, его нужно поводить за нос как можно дольше. Пользователь не должен сразу получить всю интересующую его информацию и выбрать именно то, что ему нужно все по той же причине. Пользователь не должен получать именно тот кусок информации, который ему нужен, ему нужно вывалить все и сразу. Пользователь не должен получать всю интересующую его информацию в одном месте в качественном виде, он должен по крупицам собирать его из выдачи ПС среди кучи отстойного рерайта, ложной информации, мошеннических предложений. Увы, но такова тенденция.

pinate:
Скажу так, я считаю, что чем больше таких дубликатов - тем хуже. Если их немного и нет других сильных недостатков, то сайт простят. А если по куску текста Гугл находит текст на 6 разных страницах - то это плохо. Так что нужно стараться в тех же комментариях избавляться от пагинации.
Более подробно читайте на сайте у Деваки.

Это уже издевательство над пользователем в угоду поисковой системе. Вы себе представляете страницу с 1-4 тыс. комментариев, не разбитых на страницы? Впрочем, и поисковая система не станет такое индексировать, т.к. страница может начать весить уже мегабайты. Заставлять пользователя делать лишние переходы, чтобы не дублировать тексты, тоже не дружелюбно, но зато как красиво все выглядит с токи зрения ПФ.

pinate:
под дубликатами имеется ввиду повторение частей текстов внутри сайта, которые создаются с помощью превью в категориях, тэгах и тому подобное. дубликат - это не обязательно весь текст статьи.

Под мой случай это тоже в полной мере не подходит, т.к. есть самые разные варианты, опровергающие это. Помимо этого, это еще большая глупость со стороны поисковой системы. Возьмем популярный формат блога. Есть основная запись и комментарии к ней. Как выводить комментарии? Все скопом? А если комментариев тысяча или несколько тысяч? Значит нужно выводить комментарии постранично какими-то порциями. Как тогда выводить основную запись: полностью отдельно от комментариев, только на первой странице комментариев или на каждой странице комментариев? Для пользователей сайта предпочтителен последний вариант, т.к. на какую бы страницу комментариев ты не попал, всегда видно, что обсуждается без лишних телодвижений. Для этой же цели существуют различного рода превью. Пользователь должен иметь хоть какое-то представление, стоит ли ему идти дальше по ссылке или нет. Если ваше утверждение верно, то Гугл начал бороться с тем, что стало нормой для удобства пользователей сайтов.

В общем, алгоритм критерия полезности страницы в Гугле для меня по прежнему остается загадкой.

pinate:
этот ранг показывает количество дубликатов на странице, чем меньше разница количества страниц по одному запросу и по другому - тем меньше дубликатов текста на сайте. и походу это очень важно для гугла. как один из параметров для накладывания фильтров.

Во-первых, "дубликат" - это понятие весьма относительное. Например, у меня на сайте пользователи размещают практически одни и те же тексты. Разница может быть всего в несколько слов, но именно эти слова и являются ценными для остальных пользователей и именно по ним они эти тексты и находят.

Во-вторых, ваше предположение скорее всего не верно. У меня на сайте из статей (дубликатов на сайте у них нет) в число важных попало менее половины. Только не надо говорить про дубликаты на других сайтах, т.к. в число важных попали статьи, у которых однозначно есть дубликаты на других сайтах, а мой сайт не является их первоисточником. Просто в конце прошлого и в начале этого века не считалось зазорным перепечатывать чужие статьи с разрешения автора.

Вопрос остается открытым.

Всего: 943