Скорее, не "игнорирует", а снижает вес запросам, входящим в меню. Но для КАЖДОЙ страницы! А поскольку меню обычно скврозное, то таких страниц - а, соответственно, и вхождений, - много. Пусть даже с малым весом.
Никто и не спорит, что лучший вариант - это делать меню с уникальными анкорами на каждой странице, да еще в контекст статьи встраивать. Однако как это сделать технически? Задача настолько геморная, хоть и понятно, как реализуется, что для сайта с более, чем 1000 страницами, лучше и не браться.
Вот деревообразное меню для боковой колонки для WP. Но тут куча ограничений: главная страница прописана жестко и имеет ID=2 (чтобы на нее ссылки не было, когда человек на ней стоит). И еще каждая страница имеет поле "title" в дополнительных полях, туда пишется вторая часть заголовка (не путать со стандартным TITLE в WP!).
$pid = $post->ID;
echo '<ul><li><h2>Меню сайта .... (свой сайт) ...</h2><ul>';
echo '<li>'.the_title('','',false).'</li>';
$args = array(
'post_type' => 'page',
'numberposts' => -1,
'post_parent' => $pid,
'orderby' => 'menu_order',
'order' => 'ASC',
);
if ($pid == 2) $args[post_parent] = NONE;
$postslist = get_posts($args);
foreach ($postslist as $post) : setup_postdata($post);
if ($post->ID != 2) echo '<li><a href="'.get_permalink().'" title="'.get_post_meta($post->ID, 'title', true).'">'.the_title('','',false).'</a></li>';
endforeach;
echo '</ul></li></ul>';
$post = get_post($pid);
setup_postdata($post);
------------------------------
А вот это - трехуровневые "хлебные крошки" для страниц в WP, входит в шаблон "Заголовок", header.php. Здесь также используются две части заголовка, $tit0 и $tit1 (ближе к началу кода эти переменные определяются):
if ($post->ID == 2) $hleb = '...текст для главной страницы сайта...';
else $hleb = '... ссылка на главную страницу с нужным анкором...';
$tit0 = the_title ('','',false);
$tit1 = get_post_meta($post->ID, 'title', true);
if ($post->post_parent)
{
$par_id = $post->post_parent;
$par = get_post($par_id);
if ($par->post_parent)
$par_id = $par->post_parent;
$hleb .= ' -> '.'<a href="'.get_permalink($par).'" title="'.get_post_meta($par_id, 'title', true).'">'.get_the_title($par).'</a> -> '.'<a href="'.get_permalink($post->post_parent).'" title="'.get_post_meta($post->post_parent, 'title', true).'">'.get_the_title($post->post_parent).'</a> -> '.$tit0;
}
else $hleb .= ' -> '.'<a href="'.get_permalink($post->post_parent).'" title="'.get_post_meta($post->post_parent, 'title', true).'">'.get_the_title($post->post_parent).'</a> -> '.$tit1;
else if ($post->ID != 2) $hleb .= ' -> '.$tit1;
Потом в нужном месте выводится переменная $hleb, значение которой и формирует этот код. Если же ID=2 (главная страница), то переменная заполняется вручную - самый верх кода.
------------------
К сожалению, ни о какой универсальности говорить не приходится... хотя умелый программист без труда может доработать это до плагина к WP, сделав более корректно в плане переносимости и совместимости.
1. Написать на старте, в середине и в конце страницы по абзацу текста, в котором на php синонимизируется каждое второе...третье слово. И раз в месяц автоматически менять синонимы - например, связать алгоритм с номером месяца. Как это сделать технически - прогонщики по статьям смогут рассказать лучше. Я знаю, но у меня на один такой абзац уходит до суток времени, чтоб читался, как человеко-писанный, и был релевантен странице.
2. Вставить в RSS-ленту (если она есть) ПРЯМУЮ ссылку на себя, которая видна только поисковикам. Тогда те люди, которые тянут Ваш контент через RSS, ее не увидят - и один из пяти НЕ знают, как исключить HTML-коды из сграбленного контента. Значит, Вы будете получать компенсацию в виде ссылок - правда, плохеньких.
3. Отследить, к сожалению, можно только с г-блогов, которые не перекрыли у себя трэк-бяки - и то, если они хоть на время оставили на Вас ссылку (см.п.2). С нормальных же сайтов - увы, никак... Только по факту - по COPYSCAPE.COM.
Оценил... давайте, я лучше промолчу? Спросите у кого-нибудь еще на эту тему.
Willie добавил 07.12.2009 в 01:49
... а я уже про это завязал говорить, как и про отношение "контент/код", и про релевантность контента. Ну видишь же; ну какой там "код", когда ТАКИЕ сайты... хотя бы абзац текста найти на 100 килобайт страницы, а потом еще и в дураках ходить, что типа "бред" говорим! Хотя бы одна десятая понимает, о чем мы тут пишем?! Пора бросать это дело.
Уже... уже с весны, как такое происходит. И мы вдвоем в теме про аудит сайтов уже опухаем про это говорить: "делайте чистый код!", "убирайте мусор из кода!" - ан, не верят... предпочитают писать на своем сайте на одну строчку текста десять строк кода HTML, а затем вопрошать здесь: "Почему мой сайт вывалился из выдачи Гугла так резко?".
Сайт весом "в 250к" = это вообще не сайт! Вы не путаете вес САЙТА и страницы? Если же речь об отдельной странице - то Гугл рекомендует ограничивать ее 200 кб.
Жаль, что мало что понимаю во "смеси французского с нижегородским" (С) Грибоедов, а то бы был бдителен.
Я к тому, что не изволили бы Вы написать теперь то же самое, но либо на русском, либо на английском? Может, и впрямь это стоило бы прочитать?
Я самим Гуглом и пользуюсь. Вот этим -> инструмент Гугла.
Попросите кого-нибудь еще посмотреть эту ситуацию. Может, кто-то более точно подскажет, из какого места формируются такие страницы. Или хотя бы методику, как это место вычислить. Вопрос-то серьезный...
Я бы начал с осмотра тех скриптов и папок, которые имеют права "777". Вам же почти наверняка через запись с чужого сервера подлянку делают! Значит, должны быть права на запись. Только не паникуйте: если Вам еще не "подправили" базу данных (не навставляти в посты левых ссылок, что был бы "пипец" по-настоящему) - значит, это они сделать не сумели и не сумеют, и не все так плохо!
Часто хостеры помогают в таких вопросах: им тоже не по кайфу держать у себя сайт, который хрен знает, что может завтра натворить без спроса у его владельца. Причем в некоторых случаях, если инкапсуляция плохая, разворочать можно весь сервер, и все сайты там переубивать. Как правило, за деньги они быстро находят и прибивают заразу.
Вам надо решить проблему со страницами "Все письма". Там же располагаются точки входа на основной контент, а "раздаточные страницы" оформлены плохо (дублирующийся и короткий заголовок, мета DESCRIPTION вообще отсутствует. Кстати, такая структура не очень хорошая: Вам бы, пока писем не много, разбить их на разделы, типа "Письма с просьбой о помощи", "Критические письма", "Обращания к главам администраций" - Вам виднее, на какие. Хотя бы заголовки тематические появятся, да и людям так удобнее... Смысл в том, чтобы делать больше рубрик (разделов) с содержательным контентом, и не давать "хорошим" страницам сайта показываться через 10 кликов (а когда писем накопится, то так оно и будет).
Проверил Вашу эту страницу в индексе Гугла. Вот так: (поиск страницы на сайте по ключевику). Она существует для Гугла, в индексе она есть, и с нее стоит редирект на совершенно левые ресурсы.
Короче, диагноз Вам крайне неутешительный: Вас подломили. Не Вы же, в конце концов, создали страницу про Шевроле и теперь ставите на нее внешние ссылки, чтобы немного продвинуть? Причем вражий скрипт работает, он формирует страницы, которые Гугл видит, а Вы нет (это крайне просто сделать на PHP, обычный клоакинг либо по IP, либо по полю REFFERER), и на них делает то, что ему хочется - может ссылки раздает, может, просто редиректит (как мне попалось). И скорее всего, таких страниц Вам насоздают много.
Чаще такие вражеские штучки делаются на ЯваСкрипте, который и грузит с какого-нибудь бесплатного хостинга основной вредоносный скрипт к Вам на сайт. Ну, чтоб не палить источник заразы. Поэтому первым делом посмотрите коды на предмет длинных вставок на ЯваСкрипте (там применяют еще кодирование, поэтому сам фрагмент можно глазами найти). Это самый распространенный вариант. Если же сломали умнее - то найти вражий код совсем не просто: он может быть даже во флэш-файле.