Несколько раз слышал от клиентов, что их сайт стоит на 4-м месте, проверяю у меня на 8-м, 9-м )) Если так будет отличаться то я не против впринципе))
По факту данные наблюдения подтверждаю, встречается иногда подобное явление. Причины:
- Ты залогинин на Гугл и в акке стоит галка "сохранять историю"
- Ты очень часто лазишь на данный сайт именно с выдачи и Гугл всунул тебе в браузер свой куки файл или отслеживает твой ип. Дабы дать тебе в выдаче тот сайт, что ты хочешь увидеть.
- Ты находишься в другом регионе (опять же секут ИП) и тебе подмешивают региональную выдачу, региональные домены или карты и т.д.
думаю как-то так... могу ошибаться конечно ибо это чисто мои мысли и умозаключения не основанные ни на одном документе)
Экспериментил с этим авторством. Вот что раскажу.
На одном сайте привязал страницу человека (себя с фоткой) и сделал все по мануалу гугла, начал вести записи на стене Гугл+, в круги народу подобавлял, плюсую иногда всякую инфу с этого акка.
На другом сайте сделал акк на Гугл+ аля интернет-магазин, сделал 1-2 записи на стене, отредактил инфу, в кругах максимум 2-3 юзера.
Все это сделал в 1 и тот же день.
Результат:
Первый акк живой и с человеческим изображением начал светиться в выдаче сразу после переиндексации, через буквально 3-5 дней.
Второй акк неживой, типа интернет-магазин, не светится до сих пор, хотя страницы переиндексированы уже раза 2.
Ни одно ни второе авторство не дало никакого эффекта вообще в плане позиций или авторства по куску текста. Как считал гугл мой контент ворованным так и сейчас считает.
Единственный + который я вижу в этом авторстве это что можно найти конкретного человека, который писал ту или иную инфу и посмотреть что он еще писал и как он вообще живет)) + в выдаче поморгаешь какое-то время, может кто на улице поздоровается)
Очень актуально для шоу бизнеса и политики данное авторство применять, когда ищут конкретного человека, а тут сразу его фотка выпадает)
Ох уж этот злой Гугл со своими Пандой и Пингвином))) Не воспринимайте его как мыслящий организм, это всего лишь робот с алгоритмами...
Много раз боролся с дублями страниц в выдаче, хороший вариант это замена урла и редирект с многих старых урлов с дублями на 1 новый. Кэш чистится не сразу и страницы еще повисят некоторое время в соплях. Но это не помешает вам вытянуть страницу в ТОПы )
Все верно, оператор /* перестал работать
svoloth, правильно подсказывает меняйте на /&
Это просто добавленные фото в Google Maps. У меня такое было, потом пропали правда.
Или же Гугл как-то распарсил этот сайт.
Вообще смотрю в последнее время гугл полюбил говнодомены) at.ua, ucoz.ua
А все таки! Господа, как влияет тег rel="author"??? Приносит ли он хоть какой-то эффект для сайта?
Траф просел как раз после 26-го апреля.
Пр Жалко) там 2-3 был на внутряках...
Роботс проверял и тестировал все норм с ним. спс)
Спасибо за дату апа ПР, а подскажите плиз с какой периодичностью апы ПР проходят всреднем...
В Гугл отправлял запрос на пересмотр - ответили что с сайтом все ок... Как обычно...
Сезонность возможно... Но впринципе по сравнению с прошлым годом гораздо хуже...
Побороться с гигантом можно! Как спросите вы?
Не на жизнь а на смерть! Терять бабло придется не только Гугл, но и каждому из нас!
Как вариант: Все недовольные Гуглом пусть размещают бесплатную рекламу Яндекса! Аля - "Яндекс - самый крутой поисковик Рунета", "Пользуйтесь только Яндексом", "Пользователи сайта Х уважают Яндекс". Пишите обзоры о том какое говно выдача в Гугл, соответственно тысячи таких постов и баннеров по многочисленным сайтам постоянно будут мусолить глаза пользователям. И в итоге через время должны дать эффект что пользователи таки зауважают Яндекс побольше и перейдут на него. Основной упор нужно делать на то что Гугл ворует конфиденциальную инфу с компа в целях показа рекламы!
Таким образом нагоним пользователей в Яндекс, однако все эти баннеры и обзоры - это потеря нашей прибыли, так как можно смело это дело монетизировать.
Далее будет такой эффект, много пользователей в Яндекс = интерес рекламодателей к Яндексу и соответственно переход части рекламодателей из Гугла в Яндекс. Теперь Гугл теряет деньги... И возможно кто-то там придоставит статистику высшем кем-то там и они подумают не годитсо... нужно откатывать назад... И все вернется.
Но, это не выход. Так как Яндекс может тоже что-то упороть интересное, и мы подумаем от ёжик... лучше бы в с пингвином боролись нежели с поведенческими))) И вечно останемся недовольны)))
Расслабьтесь)) Относитесь к поисковикам как к погоде или политике, это то, на что мы не можем повлиять...
Остается только одно) Купить пивка, сесть на диван и приспосабливаться к сложившейся ситуации и быть терпеливым) Кто первее приспособится тот и в шоколаде)
Это как в 90-х, кто урвал кусок от советов, тот в шоколаде по сей день, кто не урвал - те до сих пор воют и недовольны жизнью...
Сайт тьфу тьфу тьфу растет... просто есть тенденция проседания некоторых запросов на время а потом их подъем. И тут просто хочется получить для себя ответ на вопрос "почему так?" и понять лучше механизмы нашего любимого гиганта...
У меня еще есть предположение что есть некоторая периодичность важности тех или иных факторов ранжирования:
Например так (время пишу чисто для примера):
3 дня учитываются в большей степени ссылки
3 дня учитывается в большей степени текст
3 дня учитываются в большей степени теги Н1, Н2, Н3
3 дня учитывается тайтл
3 дня особую важность приобретает возраст домена
и т.д.
тоесть постоянно меняется комбинация этих факторов причем для каждого сайта в разное время...
Таким образом этот принцип помогает сделать выдачу максимально разнообразной.
У меня был такой прикол в Инструментах вэбмастеров Гугла сайт с определенной периодичностью выростал в показах в выдаче в несколько тысяч раз, причем на 1 день, потом возвращался на круги своя. Это был запрос "контакт" и сайт иногда выскакивал на 1-ю страницу (хотя не продвигался) и получал тысячи показов в выдаче... Причем я делал в то время абсолютное ничего!
И мы когда оптимизируем все факторы просто особо не замечаем как меняется выдача, и сайты иногда идут в +/- 1-2 позиции.
А что за периодичность с провалом сайта из-за закупки ссылок пока не понятно... Но почему-то все таки уверен, что это дело как-то подвязано с временем появления и жизни ссылок, временем обновления страницы и т.д.
Надо бы поставить эксперимент и вычислить зависимость количество ссылок и время на которое проваливается сайт. Возможно тогда можно будет понять какое количество ссылок Гугл считает естественным приростом, а какое уже спамом... И в зависимости если страница была обновлена или не была обновлена...