dlepro_com

dlepro_com
Рейтинг
39
Регистрация
16.12.2009
Интересы
Русские женщины, русские машины
webmasters, automaster

используйте конструкцию:

[aviable=cat][category=4]ваш контент[/category][/aviable]

qwoz:
Да, тоже самое что закрывает текст для главной, нужно для категории.
Этот код на главной выходит, то есть не действует, не понимаю почему.
---------------------------------------------------------------------------
Попробовал вставить так [aviable=castellano] (это название категории main), но текст исчез даже с страницы категории.

вы неправильно используете тег, пример я привёл выше и нужно вводить не имя категории, а её ID.

в приведённом мной коде менять нужно было только 2(двойку) введя номер ID своей категории

qwoz:
Здравствуйте. Для main.tpl существует [aviable=main], а для main категории что нужно ставить ?

не понятно что вы имеете ввиду под "main категории",

используйте варианты:

[aviable=cat]ваш контент[/aviable]

или

[category=2]ваш контент[/category]

или их вместе [aviable=cat][category=2]ваш контент[/category][/aviable]

где 2 - это ID категории

в зависимости от того что хотите от них

Аеro:
Здравствуйте форумчане, дабы не плодить еще одну тему, отпишусь в этой.

Знающие люди, подскажите пжлст

Как закрыть от индексации страницы такого уровня:


сайт.ru/2010/12/27/
сайт.ru/2011/02/07/
сайт.ru/2010/02/26/
и т.д (таких страниц очень много).
Страницы выше это все анонсы статей.

Статьи размещены в такой структуре:
сайт.ru/2010/12/27/Статья.html

Как правильно закрыть от индексации анонсы статей (сайт.ru/2010/02/26/), но тем самым не закрывая саму статью, которая находится в категории.

******

И последний вопрос, не будет ли Яндекс закрывать от индексации такую страницу:

сайт.ru/2011/03/статья/
Если в роботс есть такое правило:
Disallow: /category/*/*

Заранее Спасибо!

не совсем понятно что хотите, но если вы об этом:

Disallow: /2011/*/$
И последний вопрос, не будет ли Яндекс закрывать от индексации такую страницу....

а что вам мешает зайти в Яндекс.Вебмастер и проверить?

В Яндекс.Вебмастер(webmaster.yandex.ru) в Настройках индексирования вашего сайта есть инструмент Анализ robots.txt им и тестируйте

SeoLazy:
Получается, если я закрою всю страницу в noindex, он ее проигнорирует, но ссылки учитывать будет...

примерно так

Рабочия_Лошадка:
Я где то читал что этот тег вроде отменил яндекс или хочет отменить, скажите это правда?

тут читайте, теперь его используйте для закрытия блоков но не ссылок

Hool1984:
Да, вот так всё будет закрыто.

noindex лишнее.

Антон Белов:
советуете оставлять дубли и ждать агс? Ну ну...

Дубли чего приведите пример? ...но с 2011 согласен будет дублем в этом году...

А в остальном при первом и втором типе ЧПУ(в нынешний момент эти типы ЧПУ у большинства сайтов) какой АГС и причём тут архив?

если ваш сайт статичен и вы не обновляете его вообще, то да, такое только теоретически может быть дублем в категории или страницах навигации сайта.

а так как страницы категорий и навигации наполняясь контентом изменяются...

хотя исходя из этой концепции страницы навигации, категорий, тегов являются дублями и также все сайты загонят под АГС

ТС,

что вы поправили?

вы даже Disallow: /admin.php не убрали...

killa83:
а кто-нибудь подскажет как можно массово закрыть все ссылки УЖЕ размещеные на сайте,(DLE),тегом rel="nofollow"
а как robots.txt закрыть leech ?

Глобально:

Disallow: /engine/

или

Disallow: /engine/go.php

грац.:

В БД поиск и замену сделайте

Если версия скрипта актуальная, то всё проще:

Для массового в 9.2 делаем примерно так:

открыть engine/classes/parse.class.php

if( $this->check_home( $url['html'] ) ) $target = "";
else $target = "target=\"_blank\"";

if( $url['leech'] ) {

$url['html'] = $config['http_home_url'] . "engine/go.php?url=" . rawurlencode( base64_encode( $url['html'] ) );

return "<!--dle_leech_begin--><a href=\"" . $url['html'] . "\" " . $target . ">" . $url['show'] . "</a><!--dle_leech_end-->" . $url['end'];

} else {

if ($this->safe_mode AND !$config['allow_search_link'])
return "<a href=\"" . $url['html'] . "\" " . $target . " rel=\"nofollow\">" . $url['show'] . "</a>" . $url['end'];
else
return "<a href=\"" . $url['html'] . "\" " . $target . ">" . $url['show'] . "</a>" . $url['end'];

}

меняем на:

if( $this->check_home( $url['html'] ) ) $target = "";
else $target = "target=\"_blank\"";

if( $url['leech'] ) {

$url['html'] = $config['http_home_url'] . "engine/go.php?url=" . rawurlencode( base64_encode( $url['html'] ) );

return "<!--dle_leech_begin--><a href=\"" . $url['html'] . "\" " . $target . " rel=\"nofollow\">" . $url['show'] . "</a><!--dle_leech_end-->" . $url['end'];

} else {

if ($this->safe_mode AND !$config['allow_search_link'])
return "<a href=\"" . $url['html'] . "\" " . $target . " rel=\"nofollow\">" . $url['show'] . "</a>" . $url['end'];
else
return "<a href=\"" . $url['html'] . "\" " . $target . ">" . $url['show'] . "</a>" . $url['end'];
}

затем в Утилитах Панели управления используем новый инструмент 9.2 - Перестроение публикаций

здесь я использовал невалидный target="_blank" можно использовать атрибут rel="external nofollow", но тогда читаем здесь и здесь

killa83:
Вот читаю, читаю по форумам и везде разные высказывания.
Скажите чем лучше закрыть все внешние ссылки на сайте noindex nofollow leech ?
я думал что noindex окончательно и безповоротно закрывает ссылки, но наткнулся на такое сообщение:
Платон: Тег noindex позволяет исключить из индексирования часть текста, заключенного
в данном теге, но ссылки будут проиндексированы. Атрибут rel="nofollow"
позволяет запретить к индексированию данную ссылку.
так чем лучше закрыть ссылки, подскажите плз!

цитата вами приведена верно, noindex закроет блок текста или другого контента от индексирования в первую очередь Яндексом. Данный тег неприменим теперь к ссылкам. По поводу leech фактически это внутренняя ссылка в dle, а если вы ещё и в robots.txt закроете переход по ней от индекса, думаю вреда вообще не будет, а атрибут rel="nofollow", говоря проще, запретит индексирование ссылки ссылки.

Всего: 280