garry69

Рейтинг
197
Регистрация
12.07.2007
Dmitriy_2014 #:
Скажите мне еще раз для особо одаренных, я могу её спокойно убрать? :)

Да и забудьте про нее, вроде там было даже когда-то пояснение в этом плагине - что карта html для пс не поддерживающих бла бла бла фоорматы. Но это было очень давно и наверно оставлено для истории и в силу не существенного обновления плагина за эти года, только проверка совместимости.

А примеры ошибок смотрели по ссылкам в ошибке?

Может там видно, что поправить или добавить.

А почему не проверить что отдает сервер на том же яндексе https://webmaster.yandex.ru/tools/server-response/ или на любом другом сервисе.

Будет понятно, что за редирект, откуда, куда, после разбора полетов и что в итоге поправить программисту или вам.

За большой промежуток времени не нашлось момента поправить вывод рекламы на amp страницах, приоритет не высокий у ошибки. Скрин ошибки выше.

Тем не менее, пришлось отключить рекламу на амп от рся, так как ошибка начала влиять на показы страниц . Причем она на всех что я нашел в сети сайтах с амп использующих формат рся для амп. Видимо рекламной сети не интересен этот формат совсем или другие соображения есть.

Да он уже дано меняется у каждого сайта по своему графику, и если у вас обновился на каком-то сайте, не значит, что у всех обновится.
suffix #:
Memcached даже на выделенном сервере не нужен, а уж тем более на vps ! (на кластерах из нескольких серверов нужен конечно).

А как же экономия, скажем несколько лямов запросов в сутки, я не конкретно про мемкешед, и про редис.

Евгений Крупченко #:
Самое простое и правильное это не делать лишнюю работу вообще, т.е. страница сгенерировалась, сохранилась и дальше какое-то время отдается готовая.

Полностраничное кеширование(куданить в память) штука очень быстрая и экономит море, но всегда есть но, может и тормознуть, все конечно от того, что дергает страница. Но шустро по любому)

rodjers #:
Да  ?prefix_id=6&order=title
function yw_noindex_follow() {

$url = $_SERVER['REQUEST_URI'];

    if (strpos($url,'?prefix_id=6&order=title ') !== false) {

        echo '<meta name="robots" content="noindex, follow" />' . "\n";

    }

}

add_action( 'wp_head', 'yw_noindex_follow', 1);

В функции вашей темы добавьте и будет отдавать на этих страницах. Можно вообще все GET убить. (для wp)

add_action( 'wp_head', function() {
    if (isset($_GET) && $_GET) {
        echo '<meta name="robots" content="noindex, follow" />' . "\n";
    }
}, 1);

Можно 404 отдать и не парится.

RewriteEngine on
RewriteCond %{QUERY_STRING} ^prefix_id$
RewriteRule ^(.*)$ - [R=404,L]

Все проверяйте, подправьте...

rodjers :
Проблемы в покрытии,  проиндексировано, несмотря на блокировку в файле robots.txt. Но проблема ещё в том что тех страниц на которые гугл ссылается у меня на сайте не существует. Подскажите пожалуйста как исправить?

Наверно страницы с GET параметрами в урле?

qilly #:
От Flector'a

Ясно, не использовал его, но можно у себя проверить и добавить скажем автору и названию CDATA. Как вариант. Написать на форуме плагина, вроде там быстро отвечают.

qilly #:
Мне тоже самое прилетело в Вебмастере. 

В какой плагин используете если wp?

Всего: 971