Критика: Так.. А где объяснения, факторы, выводы?
Совет: Перестань засирать форум, бесполезными постами!
О боже мой, очередной хрен, пытается пропиариться на ровном месте.
Пусть юзает mail.ru или почту россии если у него есть сомнения.
Обо мне гугл знает, что я живу в Нидерландах, и меня зовут "Whatafuck Whatafuckovich" и мне 90 лет. И мне честно говоря все равно, что он там и кому передаст.
А чтоб не бояться, что про тебя инфу сольют, надо сперва самим жить по законам, а если уж наворовал или накосячил где-то, не надо про это писать всем по электронной почте.
В общем желто-желто-желтая статья..
Полностью согласен, я часто ищу всякие программерские напоминалки, вбивая кусок того, что мне нужно. Как пример таких запросов, может быть "header utf-8". Запросы все на англ, и начиная с появления панды, замечаю что результаты выдачи все хуже и хуже. Например, если я легко находил то, что искал на первых страницах и каких-то сателлитах или блогах, то теперь если не нашлось на stackoverflow, то надо лопатить выдачу или извращаться над запросами. В общем, на мой взгляд, качество выдачи все сильнее и сильнее ухудшается...
Я конечно понимаю, что бабло-бабло-бабло, но возникает вопрос, что они с ним делают 🙄
Очень бы интересно посмотреть где бы остались юзеры, если бы была возможность выбрать снапшот версии поиска, типа http://google.com/ver.90.2/ 🍿
Тут я имел ввиду, sitemap.xml. Он добавляется в вебмастер и с его помощью при большом кол-ве страниц, очень удобно скармливать то, что нужно отправить в первую очередь. Т.е. то, что в сайтмапе робот индексирует намного быстрее, чем то, что найдет сам.
Сайтмап для юзеров, в каталогах и инет-магазах, я видел, что показывают только ссылки на основные разделы, типа того:
+ Главная
+ Продукция
__+ Велосипеды
__+ Самокаты
+ Доставка
+ Контакты
Товары не пихают. Такая карта сайта, для пс абсолютно не важна. Да и юзерам она не нужна, если на каждой странице, есть нормальная структура категорий, например в сайдбаре.---------- Добавлено 12.07.2013 в 17:03 ----------
Да, ты всего скорее прав. Однако, я сейчас наблюдаю за сайтами, которые собирали траф по НЧ. А там не десятки тысяч страниц, а десятки миллионов. Примером, из СДЛ-ов которые попали, по моему мнению, так же под этот фильтр, может служить Rozetka. Если раньше гугл ей забивал первую страницу выдачи, то теперь это не так, хотя сайт и остался в топе.
И ещё, хочу заметить, что это лишь мои личные выводы, основанные на анализе сайтов интересующей меня тематики. В других тематиках и типах сайтов, все может быть по другому, хотя я думаю что и там будет все очень-очень похоже.
В любом случае, лично я еще жду пока все устаканится 🍿. Потом буду проводить более широкий анализ выдачи (тематики, кол-во текста на страницах, семантика, title, description, возраст, пузомерки, беки и еще много всего) и делать сайты под полученные из анализа результаты, только так можно добиться хоть какой-то стабильности.
А пока мне грустить не очем, за все что боялся, уже под фильтрами - значит бояться нечего. :) Пойду лучше за пивком 🍻 пятница-же..
☝
Возможно все не так просто, проследи за своей женой или котом, может быть они начали увлекаться SEO в тайне от тебя..
А если серьезно, то как выше отписали, всего скорее кто-то из твоей подсети кошмарит гугл, это могут быть не только веб-мастера, но и банальные участники бот-нетов.
Я провожу тесты для себя, меня интересует в первую очередь трафик а не позиции, и я вижу следующее:
1) страдают сайты у которых много-много страниц
2) страдают сайты у которых размыта тематика, т.е. много-много НЧ разных тематик
3) страдают сайты с неуником. Т.е. если тупо даже нагенерировать страницы с набором слов, они будут жить дольше чем неуник.
4) разбавление текстов уник картинками и видео, не дает особых преимуществ
5) соц сигналы, либо фильтруются, либо ушли на второй план. Т.к. 300 твитов и 300 кнопко-плюсов от G+ и FB особо, на кол-во трафика или позиции роли не сыграло
6) плохо работают большие уник статьи, например там где на 1ой странице от 10к текста и много картинок, работает хуже чем 10 страниц по 1к текста
7) дают жесткие санкции за сбор трафика через большое кол-во НЧ
Санкции которые я получал:
1) большая часть страниц выпадает из индекса
2) большая часть страниц уходит в дополнительный индекс (хоть и утверждают что его нет с 2007го), в общем туда, что считается вот так (site:name.com - site:name.com/&)
В общем итоге, снижается кол-во трафика.
В буржунете, дают вполне нормальные советы:
1) контент должен быть уникальным
2) контент должен быть "свежим"
3) должна быть четкая тематичность у сайта
4) никаких покупных ссылок
5) должна быть нормальная внутренняя оптимизация
6) не должно быть дублей
7) не должно быть копипаста
8) надо закреплять за собой авторство
9) про сам сайт я вообще молчу, это по-умолчанию: должна быть нормальная структуруа, заполнены title и description, должен быть sitemap, нужна верстка без косяков, должен быстро отдавать странички, соответственно нужен нормальный хостинг. Причем хостинг желателен в той же стране, откуда и ЦА и т.д.
10) Не должно быть быстрого роста, для молодых сайтов (не надо загонять по 10к страниц/день через сайтмап, пусть лучше сам постепенно обходит)
Это конечно все хорошо для беленьких СДЛ-ов, но мне так не хочется отказываться от своих ДДЛ-ов и ГС-ов, что у меня все равно теплится надежда, найти какое-то волшебное средство..
Но пока, в общей совокупности, трафик по этим сайтам значительно падает, от апдейта к апдейту..
Все как и прежде: оставить только актуальный и релевантный контент без дублей, убрать все покупные ссылки, если актуально понизить тошноту ключей в тексте, добавить статей без ключей из твоего семантического ядра, но по тематике сайта и ждать следующего апдейта 🍿
Это значит, в одном апдейте сайт получил "+", за счет этого часть запросов прогулялась в топ, а 8-9го вышел на охоту новый зверь и вернул запросы домой. Этот, апдейт обсуждают тут
А толку. Тут как в анекдоте: ".. если не берут взятку, расправьте банкноту, переверните другой стороной и попробуйте сново.."
Идеальных алго нет и не будет, сейчас просто сделали акцент на каких-то других факторах, которые ранее были не так критичны. Если где-то убыло, значит где-то прибыло, надо всего лишь анализировать выдачу и перестраиваться.
Привет! Можете попробовать следующее:
1) проверьте верстку, на закрытые теги, угловые скобки, description и т.д. Формирование ключевых слов на основе данных из аттрибутов форм - для меня, что-то новенькое.. Проверьте страницы из кеша гугла, на предмет таких ошибок, может они раньше были, а теперь исправлены.
2) проверьте description, там не должно быть городов, и он должен быть прописан
3) вынести города в javascript массив, и грузить их после загрузки DOM. Таким образом на странице останется только <select></select>
4) посмотрите как сделано у конкурентов. Например, эту форму можно запихнуть ниже основного текста в самой верстке. Таким образом, если например формируются сниппеты по куску текста от начала страницы, то города в них должны попадать в самом конце.