"Обновлять версию"?! Глухой номер... опять все заново переписывать...
Жаль, что люди путают аудит с критикой... Да мне-то что до ваших сайтов?! Гугл вас "откритикует" по самое некуда! Одним словом, как-то оно не по делу разговоры о критике...
Скорее, не "игнорирует", а снижает вес запросам, входящим в меню. Но для КАЖДОЙ страницы! А поскольку меню обычно скврозное, то таких страниц - а, соответственно, и вхождений, - много. Пусть даже с малым весом.
Никто и не спорит, что лучший вариант - это делать меню с уникальными анкорами на каждой странице, да еще в контекст статьи встраивать. Однако как это сделать технически? Задача настолько геморная, хоть и понятно, как реализуется, что для сайта с более, чем 1000 страницами, лучше и не браться.
Вот деревообразное меню для боковой колонки для WP. Но тут куча ограничений: главная страница прописана жестко и имеет ID=2 (чтобы на нее ссылки не было, когда человек на ней стоит). И еще каждая страница имеет поле "title" в дополнительных полях, туда пишется вторая часть заголовка (не путать со стандартным TITLE в WP!).
$pid = $post->ID;
echo '<ul><li><h2>Меню сайта .... (свой сайт) ...</h2><ul>';
echo '<li>'.the_title('','',false).'</li>';
$args = array(
'post_type' => 'page',
'numberposts' => -1,
'post_parent' => $pid,
'orderby' => 'menu_order',
'order' => 'ASC',
);
if ($pid == 2) $args[post_parent] = NONE;
$postslist = get_posts($args);
foreach ($postslist as $post) : setup_postdata($post);
if ($post->ID != 2) echo '<li><a href="'.get_permalink().'" title="'.get_post_meta($post->ID, 'title', true).'">'.the_title('','',false).'</a></li>';
endforeach;
echo '</ul></li></ul>';
$post = get_post($pid);
setup_postdata($post);
------------------------------
А вот это - трехуровневые "хлебные крошки" для страниц в WP, входит в шаблон "Заголовок", header.php. Здесь также используются две части заголовка, $tit0 и $tit1 (ближе к началу кода эти переменные определяются):
if ($post->ID == 2) $hleb = '...текст для главной страницы сайта...';
else $hleb = '... ссылка на главную страницу с нужным анкором...';
$tit0 = the_title ('','',false);
$tit1 = get_post_meta($post->ID, 'title', true);
if ($post->post_parent)
{
$par_id = $post->post_parent;
$par = get_post($par_id);
if ($par->post_parent)
$par_id = $par->post_parent;
$hleb .= ' -> '.'<a href="'.get_permalink($par).'" title="'.get_post_meta($par_id, 'title', true).'">'.get_the_title($par).'</a> -> '.'<a href="'.get_permalink($post->post_parent).'" title="'.get_post_meta($post->post_parent, 'title', true).'">'.get_the_title($post->post_parent).'</a> -> '.$tit0;
}
else $hleb .= ' -> '.'<a href="'.get_permalink($post->post_parent).'" title="'.get_post_meta($post->post_parent, 'title', true).'">'.get_the_title($post->post_parent).'</a> -> '.$tit1;
else if ($post->ID != 2) $hleb .= ' -> '.$tit1;
Потом в нужном месте выводится переменная $hleb, значение которой и формирует этот код. Если же ID=2 (главная страница), то переменная заполняется вручную - самый верх кода.
------------------
К сожалению, ни о какой универсальности говорить не приходится... хотя умелый программист без труда может доработать это до плагина к WP, сделав более корректно в плане переносимости и совместимости.
1. Написать на старте, в середине и в конце страницы по абзацу текста, в котором на php синонимизируется каждое второе...третье слово. И раз в месяц автоматически менять синонимы - например, связать алгоритм с номером месяца. Как это сделать технически - прогонщики по статьям смогут рассказать лучше. Я знаю, но у меня на один такой абзац уходит до суток времени, чтоб читался, как человеко-писанный, и был релевантен странице.
2. Вставить в RSS-ленту (если она есть) ПРЯМУЮ ссылку на себя, которая видна только поисковикам. Тогда те люди, которые тянут Ваш контент через RSS, ее не увидят - и один из пяти НЕ знают, как исключить HTML-коды из сграбленного контента. Значит, Вы будете получать компенсацию в виде ссылок - правда, плохеньких.
3. Отследить, к сожалению, можно только с г-блогов, которые не перекрыли у себя трэк-бяки - и то, если они хоть на время оставили на Вас ссылку (см.п.2). С нормальных же сайтов - увы, никак... Только по факту - по COPYSCAPE.COM.
Оценил... давайте, я лучше промолчу? Спросите у кого-нибудь еще на эту тему.
Willie добавил 07.12.2009 в 01:49
... а я уже про это завязал говорить, как и про отношение "контент/код", и про релевантность контента. Ну видишь же; ну какой там "код", когда ТАКИЕ сайты... хотя бы абзац текста найти на 100 килобайт страницы, а потом еще и в дураках ходить, что типа "бред" говорим! Хотя бы одна десятая понимает, о чем мы тут пишем?! Пора бросать это дело.
Уже... уже с весны, как такое происходит. И мы вдвоем в теме про аудит сайтов уже опухаем про это говорить: "делайте чистый код!", "убирайте мусор из кода!" - ан, не верят... предпочитают писать на своем сайте на одну строчку текста десять строк кода HTML, а затем вопрошать здесь: "Почему мой сайт вывалился из выдачи Гугла так резко?".
Сайт весом "в 250к" = это вообще не сайт! Вы не путаете вес САЙТА и страницы? Если же речь об отдельной странице - то Гугл рекомендует ограничивать ее 200 кб.
Жаль, что мало что понимаю во "смеси французского с нижегородским" (С) Грибоедов, а то бы был бдителен.
Я к тому, что не изволили бы Вы написать теперь то же самое, но либо на русском, либо на английском? Может, и впрямь это стоило бы прочитать?
Я самим Гуглом и пользуюсь. Вот этим -> инструмент Гугла.
Попросите кого-нибудь еще посмотреть эту ситуацию. Может, кто-то более точно подскажет, из какого места формируются такие страницы. Или хотя бы методику, как это место вычислить. Вопрос-то серьезный...
Я бы начал с осмотра тех скриптов и папок, которые имеют права "777". Вам же почти наверняка через запись с чужого сервера подлянку делают! Значит, должны быть права на запись. Только не паникуйте: если Вам еще не "подправили" базу данных (не навставляти в посты левых ссылок, что был бы "пипец" по-настоящему) - значит, это они сделать не сумели и не сумеют, и не все так плохо!
Часто хостеры помогают в таких вопросах: им тоже не по кайфу держать у себя сайт, который хрен знает, что может завтра натворить без спроса у его владельца. Причем в некоторых случаях, если инкапсуляция плохая, разворочать можно весь сервер, и все сайты там переубивать. Как правило, за деньги они быстро находят и прибивают заразу.