Willie

Willie
Рейтинг
240
Регистрация
08.10.2008
Nadejda:
хм, ну да есть такое про универсальность, особенно когда приходится обновлять версию ВП. приходится поднимать список измененных файлов. Ок будет время, закину в плагин:)

"Обновлять версию"?! Глухой номер... опять все заново переписывать...

Жаль, что люди путают аудит с критикой... Да мне-то что до ваших сайтов?! Гугл вас "откритикует" по самое некуда! Одним словом, как-то оно не по делу разговоры о критике...

hustle:
afaik, ПС игнорируют навигацию для расчета веса для сайта.

Скорее, не "игнорирует", а снижает вес запросам, входящим в меню. Но для КАЖДОЙ страницы! А поскольку меню обычно скврозное, то таких страниц - а, соответственно, и вхождений, - много. Пусть даже с малым весом.

TourMaster:
заметил у себя следующее: есть ссылки с менюхи, однако когда поставил доп ссылки с этими же ключами в теле других страниц, то именно эти запросы вылезли в топ, причем только за счет внутренней перелинковки.

Никто и не спорит, что лучший вариант - это делать меню с уникальными анкорами на каждой странице, да еще в контекст статьи встраивать. Однако как это сделать технически? Задача настолько геморная, хоть и понятно, как реализуется, что для сайта с более, чем 1000 страницами, лучше и не браться.

Nadejda:
Кстати, делиться будешь? ;)

Вот деревообразное меню для боковой колонки для WP. Но тут куча ограничений: главная страница прописана жестко и имеет ID=2 (чтобы на нее ссылки не было, когда человек на ней стоит). И еще каждая страница имеет поле "title" в дополнительных полях, туда пишется вторая часть заголовка (не путать со стандартным TITLE в WP!).

$pid = $post->ID;

echo '<ul><li><h2>Меню сайта .... (свой сайт) ...</h2><ul>';

echo '<li>'.the_title('','',false).'</li>';

$args = array(

'post_type' => 'page',

'numberposts' => -1,

'post_parent' => $pid,

'orderby' => 'menu_order',

'order' => 'ASC',

);

if ($pid == 2) $args[post_parent] = NONE;

$postslist = get_posts($args);

foreach ($postslist as $post) : setup_postdata($post);

if ($post->ID != 2) echo '<li><a href="'.get_permalink().'" title="'.get_post_meta($post->ID, 'title', true).'">'.the_title('','',false).'</a></li>';

endforeach;

echo '</ul></li></ul>';

$post = get_post($pid);

setup_postdata($post);

------------------------------

А вот это - трехуровневые "хлебные крошки" для страниц в WP, входит в шаблон "Заголовок", header.php. Здесь также используются две части заголовка, $tit0 и $tit1 (ближе к началу кода эти переменные определяются):

if ($post->ID == 2) $hleb = '...текст для главной страницы сайта...';

else $hleb = '... ссылка на главную страницу с нужным анкором...';

$tit0 = the_title ('','',false);

$tit1 = get_post_meta($post->ID, 'title', true);

if ($post->post_parent)

{

$par_id = $post->post_parent;

$par = get_post($par_id);

if ($par->post_parent)

{

$par_id = $par->post_parent;

$par = get_post($par_id);

$hleb .= ' -> '.'<a href="'.get_permalink($par).'" title="'.get_post_meta($par_id, 'title', true).'">'.get_the_title($par).'</a> -> '.'<a href="'.get_permalink($post->post_parent).'" title="'.get_post_meta($post->post_parent, 'title', true).'">'.get_the_title($post->post_parent).'</a> -> '.$tit0;

}

else $hleb .= ' -> '.'<a href="'.get_permalink($post->post_parent).'" title="'.get_post_meta($post->post_parent, 'title', true).'">'.get_the_title($post->post_parent).'</a> -> '.$tit1;

}

else if ($post->ID != 2) $hleb .= ' -> '.$tit1;

Потом в нужном месте выводится переменная $hleb, значение которой и формирует этот код. Если же ID=2 (главная страница), то переменная заполняется вручную - самый верх кода.

------------------

К сожалению, ни о какой универсальности говорить не приходится... хотя умелый программист без труда может доработать это до плагина к WP, сделав более корректно в плане переносимости и совместимости.

Olenevod:
Можно вопрос? Как противодействовать растаскиванию контента на сателиты? И как вовремя отследить этот момент?

1. Написать на старте, в середине и в конце страницы по абзацу текста, в котором на php синонимизируется каждое второе...третье слово. И раз в месяц автоматически менять синонимы - например, связать алгоритм с номером месяца. Как это сделать технически - прогонщики по статьям смогут рассказать лучше. Я знаю, но у меня на один такой абзац уходит до суток времени, чтоб читался, как человеко-писанный, и был релевантен странице.

2. Вставить в RSS-ленту (если она есть) ПРЯМУЮ ссылку на себя, которая видна только поисковикам. Тогда те люди, которые тянут Ваш контент через RSS, ее не увидят - и один из пяти НЕ знают, как исключить HTML-коды из сграбленного контента. Значит, Вы будете получать компенсацию в виде ссылок - правда, плохеньких.

3. Отследить, к сожалению, можно только с г-блогов, которые не перекрыли у себя трэк-бяки - и то, если они хоть на время оставили на Вас ссылку (см.п.2). С нормальных же сайтов - увы, никак... Только по факту - по COPYSCAPE.COM.

wiefix:
Оцените пожалуйста. /ru/forum/430999

URL: http://smashingjournal.ru

Оценил... давайте, я лучше промолчу? Спросите у кого-нибудь еще на эту тему.

Willie добавил 07.12.2009 в 01:49

Nadejda:
"Google модифицирует алгоритмы ранжирования таким образом, что будет учитывать не только релевантность контента и PR, но также и скорость загрузки каждой страницы"

... а я уже про это завязал говорить, как и про отношение "контент/код", и про релевантность контента. Ну видишь же; ну какой там "код", когда ТАКИЕ сайты... хотя бы абзац текста найти на 100 килобайт страницы, а потом еще и в дураках ходить, что типа "бред" говорим! Хотя бы одна десятая понимает, о чем мы тут пишем?! Пора бросать это дело.

X997:
радует что сейчас это еще не влияет на выдачу (надеюсь).

Уже... уже с весны, как такое происходит. И мы вдвоем в теме про аудит сайтов уже опухаем про это говорить: "делайте чистый код!", "убирайте мусор из кода!" - ан, не верят... предпочитают писать на своем сайте на одну строчку текста десять строк кода HTML, а затем вопрошать здесь: "Почему мой сайт вывалился из выдачи Гугла так резко?".

X997:
получается, что по этой логике, сайт у которого страница весит 5к (вместе с графикой) гугл будет ранжировать выше, чем сайт с весом страницы в 250к и кучей уникального и полезного контента ?

Сайт весом "в 250к" = это вообще не сайт! Вы не путаете вес САЙТА и страницы? Если же речь об отдельной странице - то Гугл рекомендует ограничивать ее 200 кб.

BarakObama:
аналогичная ситуация, сайт был взломан.. произошло это следующим образом:
прогонял сайт по каталогам с помощью сервиса 1ps, проходя очередной каталог выскачил попандер а зетм открылся акробат реадер в результате чего на мой комп был автоматически закачен спиварешный модуль, в виде антивирусника (эмитировал антивирусную программу и показывал процесс сканирования), в результате с компа были сворованы все пароли от ftp и т.д. буквально спустя несколько часов на большинтве моих сайтах был размещен подобный код!

перезалил файлы сайтов, просканировал все доктервебом и малваребитес (анти-спиваре), комп подлечил сайты поправил...

так что будте бдительны!

Жаль, что мало что понимаю во "смеси французского с нижегородским" (С) Грибоедов, а то бы был бдителен.

Я к тому, что не изволили бы Вы написать теперь то же самое, но либо на русском, либо на английском? Может, и впрямь это стоило бы прочитать?

Priorat:
Подскажите, есть какие-либо инструменты и сервисы для сбора статистики по частотности тех или иных запросов в гугл.ком?

Я самим Гуглом и пользуюсь. Вот этим -> инструмент Гугла.

war357159:
Пипец... Спасибо. Буду искать... Хотя пока не представляю как (((((

Попросите кого-нибудь еще посмотреть эту ситуацию. Может, кто-то более точно подскажет, из какого места формируются такие страницы. Или хотя бы методику, как это место вычислить. Вопрос-то серьезный...

Я бы начал с осмотра тех скриптов и папок, которые имеют права "777". Вам же почти наверняка через запись с чужого сервера подлянку делают! Значит, должны быть права на запись. Только не паникуйте: если Вам еще не "подправили" базу данных (не навставляти в посты левых ссылок, что был бы "пипец" по-настоящему) - значит, это они сделать не сумели и не сумеют, и не все так плохо!

Часто хостеры помогают в таких вопросах: им тоже не по кайфу держать у себя сайт, который хрен знает, что может завтра натворить без спроса у его владельца. Причем в некоторых случаях, если инкапсуляция плохая, разворочать можно весь сервер, и все сайты там переубивать. Как правило, за деньги они быстро находят и прибивают заразу.

Всего: 1893