<meta http-equiv="Content-Type" content="text/html; charset=UTF-8" /> <link rel="shortcut icon" href="//forumimg.net/favicon.ico" > <meta name="description" content="Мета-теги, сео-текст... Любые вопросы от новичков" />
description может показаться в выдаче. На ранжирование не влиял.
Заголовки страниц с фотками могут быть длинными... и урлы (как и урлы фоток) и содержать транслит или ходовой перевод слов запросов.
Если он у вас одинаков на разных страницах, то ... лучше бы его не было.
Как на этой странице:
<img src="http://i.forumimg.net/statusicon/user_offline.gif" alt="Тут текст гуглится, почти как текст страницы, и в сниппет попадает его окружение тоже.">
Вероятно, принято решение ужесточить борьбу с последствиями неидеальности собственных алгоритмов.
Вот и не ставьте прямых сцылок на них.
ПС не умеют определять первоисточник (им легче решать другую задачу), а ранжируют по ссылочной популярности, например. Им проще выкинуть из индекса, не разбираясь в авторстве (у них же в выдаче это уже есть!) а потом засыпать вас неуникальными отписками (можете просто искать все их будущие ответы).
Даже если вы порывшись по вебархиву http://wayback.archive.org/web/*/http://www.autodiagnos.com.ua/ сможете показать платонам, что всё то, что есть в выдаче — появилось позже вашей страницы, скорее всего их там смотреть не будут, и вы получите отписку бота:
Проблемы авторов ПС не решают, а чаще их создают... не понимая, что этим создают тенденцию усугубления своих проблем. Они живут вчера... и демонстрируют успехи... в борьбе с тем, что не победили ещё позавчера.
Пообещать платонам уйти в ГСтрой, как тому и учат ихние алгоритмы.
Во всяком случае, это их выдача... и скорее всего не получится разбавлять её оригинальным контентом, если они сами того не желают.
Там и слов запроса нету ... в одном. Про что и отвечал.
Так не пишите между них слов запроса.
А из меню тоже можно было делать сниппеты. И даже красивые слишком.
Правда непонятная была фраза:
Выбор есть... чего именно закрывать. У Лебедева закрыто каждое слово отдельно. Можете хоть по половине слова закрывать (но для G они перестанут быть целыми, наверное).
ps уходите в xml, там всё это прячется/показывается боту/посетителю легко и как хотите http://seo-xslt.narod.ru/DEMO/perelinkovka-gavno.xml — бот меню не видит, как и сцылку на раздел. Только в подвале.
Не должны, особенно если они дублируют тайтл, например, им тогда и вылазить не нужно. А ещё можно убрать из меню слова запроса в <noindex> (или те слова, которых нет в тайтле).
http://romip.ru/romip2008/2008_13_Yandex.pdf
Вряд ли.
Урл в конце — это бывало и тогда, когда никакого урла в тайтле страницы не было. Вот в демке приписал - Народ, чуть раньше этого не было.
Они там что-то экспериментируют http://roem.ru/2011/06/14/addednews29623/
Забавно смотреть приписки по запросам типа inurl:sitemap.xml / inurl:robots.txt
Я.зомби реже кликать будут... если в начале не выделенные слова запроса, а вода, которую... лень читать.
По site:mir-antenn.kz антенны нормальный.
Уже давно вместо тайтла может попасть перелинковочный анкор или внешняя сцылка: см. второй и последний результаты.
Т.е. и... перелинковку придётся делать человечно — для G. А для Я — исключать <!--noindex-->из анкоров<!--/noindex--> некоторые слова.
Для них эта фраза означает: «Ну вот видите, значит они писали для робота, значит наши алгоритмы правильно его выплюнули» :)
Контора ничего не обязана (кроме зарабатывания денег). Они никого не обещали индексировать.
У алгоритмов есть некоторая точность, т.е. без ошибок делать ничего нельзя. Например, нельзя уменьшить количество реального спама в выдаче ниже 4%. Т.е. примерно такой же % белых пушистых (или просто случайных, но допустимых) попадает под каток... хотя, можно и больше, зависит от настроений борцов со спамом. Просто эти борцы не совсем понимают долговременные последствия... в получеловеческих системах механический подход не сработает так, как им хочется. Но они имеют на это право и могут объяснить причины своей уверенности. А разгрести ошибки вручную не могут по причине их количества.
ps ни одного (тестового) сайтика для роботов под фильтр у меня не попало, только те, что для людей. Уже мерещилась необходимость верстать так, чтобы не было похоже на большинство...
Интересно, кто-нибудь выводил из АГС прописыванием доктайпа?
А ПС вообще в него смотрят?.. мне этого замечать не приходилось, хотя поводов было несколько.
Пример грубейшей ошибки.
Если её устранить, в IE возникнут проблемы... просто валидатор тупит в данном случае, это не xhtml
ps Кто-нибудь возраст спецификаций.w3c смотрел? Им АГС не грозит?
Оставьте как было и не трогайте ничего... если лень погуглить слово DOCTYPE