Digdug, если блок на vews, аргументами: по Node:nid, выбрать default argument - Node nid from url и исключить из вывода. Текущая нода исключается.
Если стоит фильтрация по терминам таксономии или еще какая, аргумент Node:nid должен быть добавлен вторым.
А можно вопрос? Во время повышенной активности ботов прописала такую вот конструкцию:
RewriteRule \.(cgi|rdf)$ - [F]RewriteRule http: - [F]RewriteRule xmlrps\php$ - [F]RewriteRule ^wp- - [F]RewriteRule ^modx/ - [F]RewriteRule ^includes/ - [F]RewriteCond %{QUERY_STRING} http:RewriteRule .* - [F]
В данном случае нужно завершать RewriteRule .* - [F,L], а не RewriteRule .* - [F] ?
И может ли не завершение на производительности сказаться?
Или я, не разбираясь в htaccess., что-то не то придумала?
Спасибо.
----------------------------------------------------
и
Если каждая запись - грубо говоря, запрет доступа, 403 Forbidden status, то нужно ли останавливать? Или у меня каждая строка обрабатывается
Господа, подскажите - как правильно в моем случае - [F,L] или все же [F]? Что-то я сама себя запутала.
Да, у меня тоже точно так. Временами - сегодня абзац не ищется, а завтра-послезавтра будет искаться. Я уже не обращаю внимания - главное, что на позиции страницы эта "неадекватность" не влияет. Просто уже автоматически ключи в первый абзац не ставлю.
Может, это какая-то особенность алгоритма поиска/ранжирования - как колоду карт тасует выдачу, выдергивает нужные страницы время от времени :)
Нет, тоже "Нет результатов для "новая модель..."
Я сама еще в прошлом году голову ломала - на некоторых страницах первый абзац действительно не ищется. И не только - еще списки - первый <li></li>. Обнаружила случайно - текст растащили. И наблюдается эта штука независимо от позиций - допустим, одна страница по своему ключу на 1-м месте, другая - > 20.
Но самое интересное - проверяла "подозрительные" страницы несколько раз: иногда "пропавший" абзац находится.
И самое-самое интересное - обнаружила в Яндекс: страница в индексе, но случайно взятый отрывок текста не ищется в какой-то момент. Правда, обнаружила всего одну такую страницу - дальше искать терпения не хватило.
Почему-то мне кажется, что это не фильтр...
Господа, ребята, знатоки Drupal - пожалуйста помогите разобраться не-программисту с кавычками. Я запуталась, наверное, в элементарном.
Замена кавычек и пр. в тексте. Допустим, обычные двойные "/" кавычки должны заменяться на "- текст пропускается через встроенную функцию Drupal check_plain(). Но не заменяются. В чем может быть проблема?
Формат ввода - Filtered HTML. Во всех типах материалов - "опасные" символы не заменяются. И кто виноват, и что мне делать с этими кавычками?
Видела другие проблемы - наоборот, или тире или кавычки там где не нужно заменяются. А у меня - все не как у людей
--------------------------
Да, и при этом в заголовках нод символы заменяются - те же кавычки.
На странице /filter/tips
Character Description You Type You Get
Ampersand & / &
Greater than > / >
Less than < / <
Quotation mark " / "
И это меня окончательно запутало. То есть, если я пишу " (You Type) - я получаю (You Get) "/ " - а ведь нужно наоборот?
В Гугл Вебмастере есть проверка HTML кода.
И есть сайт. И есть ошибки - парочка, но хорошие такие ошибки. Валидатор w3.org ругается.
Гугл - нет, говорит, ошибок, в порядке все.
В Яндексе висит сохраненная копия сайта. Увидела первый раз - испугалась. Оказывается, это он так на кеширование Друпала реагирует, кое-что подправить просто нужно.
Выходит, им совершено все равно? :)
Нет, с Яндекс погорячилась - там стили теряются.
Можно - только я это позже поняла. Боролась со страницей вида page/24/?option= И без звездочки не так, и со звездочкой не так - нет бы подождать, пока Гугл переиндексирует.
Да, именно там, в роботсе. В кропотливо собираемом мною беспорядке затесалось Disallow: /*sort*, и в названии статьи есть слово СОРТ.
Транслит и никакой мистики, как установил DenisVS.
Я прямо от души рассмеялась - надо же, мучала-мучала эту страницу, а на URL-то и не догадалась посмотреть, и вообще связать название статьи с запретами в роботсе :)
За сочувствие спасибо :) А какие данные - урл вида сайт/термин таксономии/статья, ЧПУ, каноникал указан - честно, от других страниц ничем не отличается. Все попытки вывести в индекс ничего не дают. Скоро вообще буду думать, что Гугл контент запоминает, таким образом с дублями борется. Но думаю, что-то в Друпале я упустила...
А может такое быть: не знаю, какой-то глюк в базе - или она как-то сохраняеется из бекапа, у хостера проблемы были - то панель отваливалась, то сама база.
Да, вот так за две минуты решается нерешенное за месяц. И никакой мистики :)
Спасибо большое :)
А я уже думала все, вирус-троян какой поймала.
А может, он, Яндекс, по подсетям банит зачем-то?
_______________________________________
Нам очень жаль, но запросы, поступившие с вашего IP-адреса, похожи на автоматические. По этой причине мы вынуждены временно заблокировать доступ к поиску.