Имеет. Накачка ссылок различными тегами, повышающими вес слова в документе - верный путь к санкциям со стороны поисковых систем.
Если все ключевые слова сделать ссылками - ИМХО толку не будет, а будет склейка ссылок. А вот несколько ссылок со страниц сайта не помешает. Максимальный эффект дадут ссылки с разными вариантами ключевых слов, например "огурцы маринованые" и "огурцы малосольные" для слова "огурцы", а также размещенные на разных страницах. Т.е. с одной страницы ссылки на огурцы, со второй - на помидоры и так по всему огороду:)
Некий "Бонус новичка" ИМХО все же есть... Я неоднократно наблюдал, как только что созданные сайты, оптимизированные под конкретные запросы и с неплохим количеством бэклинков хорошо выходили в ТОП10 Яндекса, держались на этих позициях 1-2 апдейта и постепенно сползали вниз. Естественно, речь идет исключительно о новых доменах, которые еще не были проиндексированы Яндексом.
А по стратегии продвижения - если уверены, что с контентом поработали хорошо, то теперь пора активно наращивать бэклинки: регистрироваться в каталогах, меняться ссылками, возможно прикупить парочку, если конкуренты пользуются покупными мордами.
Естественно, бэклинки нужно ставить с разными текстами, если есть возможность разместить на тематических сайтах статьи со ссылками - то вообще отлично.
Посмотрел сайт, в числе первых 50 проиндексированных страниц выдает отсутствующие на сайте страницы. Мой совет - запретить в robots.txt все, что Яндекс показывает в индексе, но реально на сайте отсутствует.
Что касается результатов ранжирования - нужно работать над сайтом, оптимизировать страницы, добавлять контент, ставить ссылки и так далее...
Если на сайте нормальный контент, который индексирует Яндекс, количество ссылок на сайт с ключевиком в тексте соизмеримо с количеством ссылок у сайтов из топа по данному запросу, и при этом сайт не находится в числе первых 100 результатов - то картина похожа на пессимизацию за накрутку ссылочного ранжирования.
Однако, насколько я знаю, при пессимизации за накрутку ссылок тИЦ обнуляется, так что проблемы могут быть вовсе не в этом. Советую изучить, что именно проиндексировано Яндексом, какой текст на каких страницах. Также неплохо изучить статистику посещаемости, сравнить трафик за тот период, когда сайт был в топе и сейчас, посмотреть, откуда берется трафик и по каким ключевым словам люди находят сайт.
По поводу бана и пессимизации советую почитать вот эту тему, тут можно найти много интересного.
По моим наблюдениям, Яндекс показывает в таких случаях страницу с наименьшим количеством исходящих ссылок среди всех найденных страниц. Как правило, морда такой не является.
Самая простая: ya.ru, в окне поиска написать anchor#link="www.yoursite.ru*"
Есть:
clx.ru
links.obgon.ru
forum.searchengines.ru/forumdisplay.php?f=52 :)
ИМХО забанить сайт без доступа к нему нельзя, если он сам не нарушает лицензию. А вот наложить пессимизацию, например на ссылочное ранжирование, можно легко. Методов масса, результат аналогичный бану - конкурент со свистом вылетает из топа.
Кстати таки да, есть непонятная тенденция у Яндекса. Совсем недавно из индекса вылетели три сайта в зоне net.ru с русским и английским контентом, раньше были проиндексированы полностью. Хорошие ссылки на сайты стоят, через форму добавлял, более того - робот на сайтах пасется постоянно и индексирует все страницы - но в базе сайты отсутствуют уже почти месяц. Вылететь из-за хостинга они вряд ли могли, на той же площадке расположены другие сайты, в том числе com и net с русским контентом - все находятся в индексе.
Буду ждать конца апдейта, боюсь, что придется писать в саппорт...
Потому что домены разные.
Посещаемость растет за счет низкочастотников, которые находятся на внутренних страницах. Естественно, если на них есть нормальный контент.
Самый простой выход - запретить страницу page1.html в robots.txt, после чего через форму яндекса подать на удаление из индекса.
Более сложный - сделать текст внутри страницы неиндексируемым, способов масса, тот же самый <noindex>.