Willie

Willie
Рейтинг
200
Регистрация
08.10.2008
hustle:
afaik, ПС игнорируют навигацию для расчета веса для сайта.

Скорее, не "игнорирует", а снижает вес запросам, входящим в меню. Но для КАЖДОЙ страницы! А поскольку меню обычно скврозное, то таких страниц - а, соответственно, и вхождений, - много. Пусть даже с малым весом.

TourMaster:
заметил у себя следующее: есть ссылки с менюхи, однако когда поставил доп ссылки с этими же ключами в теле других страниц, то именно эти запросы вылезли в топ, причем только за счет внутренней перелинковки.

Никто и не спорит, что лучший вариант - это делать меню с уникальными анкорами на каждой странице, да еще в контекст статьи встраивать. Однако как это сделать технически? Задача настолько геморная, хоть и понятно, как реализуется, что для сайта с более, чем 1000 страницами, лучше и не браться.

Nadejda:
Кстати, делиться будешь? ;)

Вот деревообразное меню для боковой колонки для WP. Но тут куча ограничений: главная страница прописана жестко и имеет ID=2 (чтобы на нее ссылки не было, когда человек на ней стоит). И еще каждая страница имеет поле "title" в дополнительных полях, туда пишется вторая часть заголовка (не путать со стандартным TITLE в WP!).

$pid = $post->ID;

echo '<ul><li><h2>Меню сайта .... (свой сайт) ...</h2><ul>';

echo '<li>'.the_title('','',false).'</li>';

$args = array(

'post_type' => 'page',

'numberposts' => -1,

'post_parent' => $pid,

'orderby' => 'menu_order',

'order' => 'ASC',

);

if ($pid == 2) $args[post_parent] = NONE;

$postslist = get_posts($args);

foreach ($postslist as $post) : setup_postdata($post);

if ($post->ID != 2) echo '<li><a href="'.get_permalink().'" title="'.get_post_meta($post->ID, 'title', true).'">'.the_title('','',false).'</a></li>';

endforeach;

echo '</ul></li></ul>';

$post = get_post($pid);

setup_postdata($post);

------------------------------

А вот это - трехуровневые "хлебные крошки" для страниц в WP, входит в шаблон "Заголовок", header.php. Здесь также используются две части заголовка, $tit0 и $tit1 (ближе к началу кода эти переменные определяются):

if ($post->ID == 2) $hleb = '...текст для главной страницы сайта...';

else $hleb = '... ссылка на главную страницу с нужным анкором...';

$tit0 = the_title ('','',false);

$tit1 = get_post_meta($post->ID, 'title', true);

if ($post->post_parent)

{

$par_id = $post->post_parent;

$par = get_post($par_id);

if ($par->post_parent)

{

$par_id = $par->post_parent;

$par = get_post($par_id);

$hleb .= ' -> '.'<a href="'.get_permalink($par).'" title="'.get_post_meta($par_id, 'title', true).'">'.get_the_title($par).'</a> -> '.'<a href="'.get_permalink($post->post_parent).'" title="'.get_post_meta($post->post_parent, 'title', true).'">'.get_the_title($post->post_parent).'</a> -> '.$tit0;

}

else $hleb .= ' -> '.'<a href="'.get_permalink($post->post_parent).'" title="'.get_post_meta($post->post_parent, 'title', true).'">'.get_the_title($post->post_parent).'</a> -> '.$tit1;

}

else if ($post->ID != 2) $hleb .= ' -> '.$tit1;

Потом в нужном месте выводится переменная $hleb, значение которой и формирует этот код. Если же ID=2 (главная страница), то переменная заполняется вручную - самый верх кода.

------------------

К сожалению, ни о какой универсальности говорить не приходится... хотя умелый программист без труда может доработать это до плагина к WP, сделав более корректно в плане переносимости и совместимости.

Olenevod:
Можно вопрос? Как противодействовать растаскиванию контента на сателиты? И как вовремя отследить этот момент?

1. Написать на старте, в середине и в конце страницы по абзацу текста, в котором на php синонимизируется каждое второе...третье слово. И раз в месяц автоматически менять синонимы - например, связать алгоритм с номером месяца. Как это сделать технически - прогонщики по статьям смогут рассказать лучше. Я знаю, но у меня на один такой абзац уходит до суток времени, чтоб читался, как человеко-писанный, и был релевантен странице.

2. Вставить в RSS-ленту (если она есть) ПРЯМУЮ ссылку на себя, которая видна только поисковикам. Тогда те люди, которые тянут Ваш контент через RSS, ее не увидят - и один из пяти НЕ знают, как исключить HTML-коды из сграбленного контента. Значит, Вы будете получать компенсацию в виде ссылок - правда, плохеньких.

3. Отследить, к сожалению, можно только с г-блогов, которые не перекрыли у себя трэк-бяки - и то, если они хоть на время оставили на Вас ссылку (см.п.2). С нормальных же сайтов - увы, никак... Только по факту - по COPYSCAPE.COM.

wiefix:
Оцените пожалуйста. /ru/forum/430999

URL: http://smashingjournal.ru

Оценил... давайте, я лучше промолчу? Спросите у кого-нибудь еще на эту тему.

Willie добавил 07.12.2009 в 01:49

Nadejda:
"Google модифицирует алгоритмы ранжирования таким образом, что будет учитывать не только релевантность контента и PR, но также и скорость загрузки каждой страницы"

... а я уже про это завязал говорить, как и про отношение "контент/код", и про релевантность контента. Ну видишь же; ну какой там "код", когда ТАКИЕ сайты... хотя бы абзац текста найти на 100 килобайт страницы, а потом еще и в дураках ходить, что типа "бред" говорим! Хотя бы одна десятая понимает, о чем мы тут пишем?! Пора бросать это дело.

X997:
радует что сейчас это еще не влияет на выдачу (надеюсь).

Уже... уже с весны, как такое происходит. И мы вдвоем в теме про аудит сайтов уже опухаем про это говорить: "делайте чистый код!", "убирайте мусор из кода!" - ан, не верят... предпочитают писать на своем сайте на одну строчку текста десять строк кода HTML, а затем вопрошать здесь: "Почему мой сайт вывалился из выдачи Гугла так резко?".

X997:
получается, что по этой логике, сайт у которого страница весит 5к (вместе с графикой) гугл будет ранжировать выше, чем сайт с весом страницы в 250к и кучей уникального и полезного контента ?

Сайт весом "в 250к" = это вообще не сайт! Вы не путаете вес САЙТА и страницы? Если же речь об отдельной странице - то Гугл рекомендует ограничивать ее 200 кб.

BarakObama:
аналогичная ситуация, сайт был взломан.. произошло это следующим образом:
прогонял сайт по каталогам с помощью сервиса 1ps, проходя очередной каталог выскачил попандер а зетм открылся акробат реадер в результате чего на мой комп был автоматически закачен спиварешный модуль, в виде антивирусника (эмитировал антивирусную программу и показывал процесс сканирования), в результате с компа были сворованы все пароли от ftp и т.д. буквально спустя несколько часов на большинтве моих сайтах был размещен подобный код!

перезалил файлы сайтов, просканировал все доктервебом и малваребитес (анти-спиваре), комп подлечил сайты поправил...

так что будте бдительны!

Жаль, что мало что понимаю во "смеси французского с нижегородским" (С) Грибоедов, а то бы был бдителен.

Я к тому, что не изволили бы Вы написать теперь то же самое, но либо на русском, либо на английском? Может, и впрямь это стоило бы прочитать?

Priorat:
Подскажите, есть какие-либо инструменты и сервисы для сбора статистики по частотности тех или иных запросов в гугл.ком?

Я самим Гуглом и пользуюсь. Вот этим -> инструмент Гугла.

war357159:
Пипец... Спасибо. Буду искать... Хотя пока не представляю как (((((

Попросите кого-нибудь еще посмотреть эту ситуацию. Может, кто-то более точно подскажет, из какого места формируются такие страницы. Или хотя бы методику, как это место вычислить. Вопрос-то серьезный...

Я бы начал с осмотра тех скриптов и папок, которые имеют права "777". Вам же почти наверняка через запись с чужого сервера подлянку делают! Значит, должны быть права на запись. Только не паникуйте: если Вам еще не "подправили" базу данных (не навставляти в посты левых ссылок, что был бы "пипец" по-настоящему) - значит, это они сделать не сумели и не сумеют, и не все так плохо!

Часто хостеры помогают в таких вопросах: им тоже не по кайфу держать у себя сайт, который хрен знает, что может завтра натворить без спроса у его владельца. Причем в некоторых случаях, если инкапсуляция плохая, разворочать можно весь сервер, и все сайты там переубивать. Как правило, за деньги они быстро находят и прибивают заразу.

war357159:
Посмотрите и этот сайт пожалуйста.
http://open-letter.ru/

Вам надо решить проблему со страницами "Все письма". Там же располагаются точки входа на основной контент, а "раздаточные страницы" оформлены плохо (дублирующийся и короткий заголовок, мета DESCRIPTION вообще отсутствует. Кстати, такая структура не очень хорошая: Вам бы, пока писем не много, разбить их на разделы, типа "Письма с просьбой о помощи", "Критические письма", "Обращания к главам администраций" - Вам виднее, на какие. Хотя бы заголовки тематические появятся, да и людям так удобнее... Смысл в том, чтобы делать больше рубрик (разделов) с содержательным контентом, и не давать "хорошим" страницам сайта показываться через 10 кликов (а когда писем накопится, то так оно и будет).

war357159:
Вот в том то и дело, что он их видит...
1974 Chevrolet Monte Carlo @ forum-1c.ru

Проверил Вашу эту страницу в индексе Гугла. Вот так: (поиск страницы на сайте по ключевику). Она существует для Гугла, в индексе она есть, и с нее стоит редирект на совершенно левые ресурсы.

Короче, диагноз Вам крайне неутешительный: Вас подломили. Не Вы же, в конце концов, создали страницу про Шевроле и теперь ставите на нее внешние ссылки, чтобы немного продвинуть? Причем вражий скрипт работает, он формирует страницы, которые Гугл видит, а Вы нет (это крайне просто сделать на PHP, обычный клоакинг либо по IP, либо по полю REFFERER), и на них делает то, что ему хочется - может ссылки раздает, может, просто редиректит (как мне попалось). И скорее всего, таких страниц Вам насоздают много.

Чаще такие вражеские штучки делаются на ЯваСкрипте, который и грузит с какого-нибудь бесплатного хостинга основной вредоносный скрипт к Вам на сайт. Ну, чтоб не палить источник заразы. Поэтому первым делом посмотрите коды на предмет длинных вставок на ЯваСкрипте (там применяют еще кодирование, поэтому сам фрагмент можно глазами найти). Это самый распространенный вариант. Если же сломали умнее - то найти вражий код совсем не просто: он может быть даже во флэш-файле.

Всего: 1891