La5

Рейтинг
65
Регистрация
11.10.2009
V_TOP_ky Google:
Добрый день уважаемые коллеги!
Поднимаю эту тему, так как обновился алгоритм Пингвина, думаю за прошедший год, многие SEO оптимизаторы ощутили всю силу пингвина.
Я попытаюсь объяснить, какие факторы влияют сейчас на выдачу, и как продвигать сайты в нынешних условиях.

От вас жду адекватных вопросов! Советов и критики.

Критика: Так.. А где объяснения, факторы, выводы?

Совет: Перестань засирать форум, бесполезными постами!

О боже мой, очередной хрен, пытается пропиариться на ровном месте.

Пусть юзает mail.ru или почту россии если у него есть сомнения.

Обо мне гугл знает, что я живу в Нидерландах, и меня зовут "Whatafuck Whatafuckovich" и мне 90 лет. И мне честно говоря все равно, что он там и кому передаст.

А чтоб не бояться, что про тебя инфу сольют, надо сперва самим жить по законам, а если уж наворовал или накосячил где-то, не надо про это писать всем по электронной почте.

В общем желто-желто-желтая статья..

satbauer:
Только с НГ уже выдача все хуже и хуже :)

Полностью согласен, я часто ищу всякие программерские напоминалки, вбивая кусок того, что мне нужно. Как пример таких запросов, может быть "header utf-8". Запросы все на англ, и начиная с появления панды, замечаю что результаты выдачи все хуже и хуже. Например, если я легко находил то, что искал на первых страницах и каких-то сателлитах или блогах, то теперь если не нашлось на stackoverflow, то надо лопатить выдачу или извращаться над запросами. В общем, на мой взгляд, качество выдачи все сильнее и сильнее ухудшается...

Я конечно понимаю, что бабло-бабло-бабло, но возникает вопрос, что они с ним делают 🙄

Очень бы интересно посмотреть где бы остались юзеры, если бы была возможность выбрать снапшот версии поиска, типа http://google.com/ver.90.2/ 🍿

Константин:
Откровением было узнать про сайтмап, я как разработчик небольших магазинов уже устал объяснять клиентам что не стоит времени тратить на сайтмап

Тут я имел ввиду, sitemap.xml. Он добавляется в вебмастер и с его помощью при большом кол-ве страниц, очень удобно скармливать то, что нужно отправить в первую очередь. Т.е. то, что в сайтмапе робот индексирует намного быстрее, чем то, что найдет сам.

Сайтмап для юзеров, в каталогах и инет-магазах, я видел, что показывают только ссылки на основные разделы, типа того:

+ Главная

+ Продукция

__+ Велосипеды

__+ Самокаты

+ Доставка

+ Контакты

Товары не пихают. Такая карта сайта, для пс абсолютно не важна. Да и юзерам она не нужна, если на каждой странице, есть нормальная структура категорий, например в сайдбаре.

---------- Добавлено 12.07.2013 в 17:03 ----------

Aspirantspb:
спасибо, но позволю себе комментарии к некоторым утверждениям

если у сайта есть нормальная структура и не напихано в одну директорию тысячи статей, то и это не страшно. Если конечно, не сгенерировано десятки тысяч страниц без адекватной перелинковки. Разумеется, сюда же, в категорию риска относятся распухшие бложики, у которых заметки напиханы так blog.ru/page

Да, ты всего скорее прав. Однако, я сейчас наблюдаю за сайтами, которые собирали траф по НЧ. А там не десятки тысяч страниц, а десятки миллионов. Примером, из СДЛ-ов которые попали, по моему мнению, так же под этот фильтр, может служить Rozetka. Если раньше гугл ей забивал первую страницу выдачи, то теперь это не так, хотя сайт и остался в топе.

И ещё, хочу заметить, что это лишь мои личные выводы, основанные на анализе сайтов интересующей меня тематики. В других тематиках и типах сайтов, все может быть по другому, хотя я думаю что и там будет все очень-очень похоже.

В любом случае, лично я еще жду пока все устаканится 🍿. Потом буду проводить более широкий анализ выдачи (тематики, кол-во текста на страницах, семантика, title, description, возраст, пузомерки, беки и еще много всего) и делать сайты под полученные из анализа результаты, только так можно добиться хоть какой-то стабильности.

А пока мне грустить не очем, за все что боялся, уже под фильтрами - значит бояться нечего. :) Пойду лучше за пивком 🍻 пятница-же..

AboutSEO:
ага, тока что из магаза пришел - пивасика брал...

Возможно все не так просто, проследи за своей женой или котом, может быть они начали увлекаться SEO в тайне от тебя..

А если серьезно, то как выше отписали, всего скорее кто-то из твоей подсети кошмарит гугл, это могут быть не только веб-мастера, но и банальные участники бот-нетов.

Aspirantspb:
так никто толком не знает, что это за алгоритм и как применяются санкции.

Я было сначала подумал, что это санкции некоторым сайтам за "распухший" флейм и прочие нетематические разделы, в которых есть или страницы с "популярными ключами" или туда ведут входящие ссылки с вч анкорами. Причем содержимое страницы не соответствует ни ключам, ни входящим ссылкам.

Но даже в этой теме утверждали, что пострадали и узкотематические сайты. Так что фиг знает.

Я провожу тесты для себя, меня интересует в первую очередь трафик а не позиции, и я вижу следующее:

1) страдают сайты у которых много-много страниц

2) страдают сайты у которых размыта тематика, т.е. много-много НЧ разных тематик

3) страдают сайты с неуником. Т.е. если тупо даже нагенерировать страницы с набором слов, они будут жить дольше чем неуник.

4) разбавление текстов уник картинками и видео, не дает особых преимуществ

5) соц сигналы, либо фильтруются, либо ушли на второй план. Т.к. 300 твитов и 300 кнопко-плюсов от G+ и FB особо, на кол-во трафика или позиции роли не сыграло

6) плохо работают большие уник статьи, например там где на 1ой странице от 10к текста и много картинок, работает хуже чем 10 страниц по 1к текста

7) дают жесткие санкции за сбор трафика через большое кол-во НЧ

Санкции которые я получал:

1) большая часть страниц выпадает из индекса

2) большая часть страниц уходит в дополнительный индекс (хоть и утверждают что его нет с 2007го), в общем туда, что считается вот так (site:name.com - site:name.com/&)

В общем итоге, снижается кол-во трафика.

В буржунете, дают вполне нормальные советы:

1) контент должен быть уникальным

2) контент должен быть "свежим"

3) должна быть четкая тематичность у сайта

4) никаких покупных ссылок

5) должна быть нормальная внутренняя оптимизация

6) не должно быть дублей

7) не должно быть копипаста

8) надо закреплять за собой авторство

9) про сам сайт я вообще молчу, это по-умолчанию: должна быть нормальная структуруа, заполнены title и description, должен быть sitemap, нужна верстка без косяков, должен быстро отдавать странички, соответственно нужен нормальный хостинг. Причем хостинг желателен в той же стране, откуда и ЦА и т.д.

10) Не должно быть быстрого роста, для молодых сайтов (не надо загонять по 10к страниц/день через сайтмап, пусть лучше сам постепенно обходит)

Это конечно все хорошо для беленьких СДЛ-ов, но мне так не хочется отказываться от своих ДДЛ-ов и ГС-ов, что у меня все равно теплится надежда, найти какое-то волшебное средство..

Но пока, в общей совокупности, трафик по этим сайтам значительно падает, от апдейта к апдейту..

золотой магнат:
Как вылезти из под этого фильтра?

Все как и прежде: оставить только актуальный и релевантный контент без дублей, убрать все покупные ссылки, если актуально понизить тошноту ключей в тексте, добавить статей без ключей из твоего семантического ядра, но по тематике сайта и ждать следующего апдейта 🍿

Это значит, в одном апдейте сайт получил "+", за счет этого часть запросов прогулялась в топ, а 8-9го вышел на охоту новый зверь и вернул запросы домой. Этот, апдейт обсуждают тут

beginerx:
Aspirantspb:
this update has the potential to completely nullify the effect all black-hat SEO practices.

короче всех SЕО обнулят! (nullify) :(

А толку. Тут как в анекдоте: ".. если не берут взятку, расправьте банкноту, переверните другой стороной и попробуйте сново.."

Идеальных алго нет и не будет, сейчас просто сделали акцент на каких-то других факторах, которые ранее были не так критичны. Если где-то убыло, значит где-то прибыло, надо всего лишь анализировать выдачу и перестраиваться.

German V:
Добрый вечер.
...
Сразу скажу, я не силен в программировании и мне нужно программисту как-то поставить задачу по устранению этой беды.

Привет! Можете попробовать следующее:

1) проверьте верстку, на закрытые теги, угловые скобки, description и т.д. Формирование ключевых слов на основе данных из аттрибутов форм - для меня, что-то новенькое.. Проверьте страницы из кеша гугла, на предмет таких ошибок, может они раньше были, а теперь исправлены.

2) проверьте description, там не должно быть городов, и он должен быть прописан

3) вынести города в javascript массив, и грузить их после загрузки DOM. Таким образом на странице останется только <select></select>

4) посмотрите как сделано у конкурентов. Например, эту форму можно запихнуть ниже основного текста в самой верстке. Таким образом, если например формируются сниппеты по куску текста от начала страницы, то города в них должны попадать в самом конце.

Всего: 67