Если в notepad++, в поиске/замене установите режим поиска "Расширенный" и замените \r\n на пробел
если не все почистит, то \n
только эта операция удалит абсолютно все переносы строк.
Но можно это и непосредственно в базе sql-запросом сделать:
UPDATE table_name SET field_name=REPLACE(field_name,'\r\n',' ')
Точно. Видимо, куда-то не туда вставляете.
Может вы его вне <?php ... ?> вставили?
сейчас проверил в search console при css открытых и закрытых в robots.txt
если закрыто, то и в мобильном и десктопном вариантах:
если открыто, то и в мобильном и десктопном вариантах:
Т.е., как и ожидалось. И, честно говоря, я сомневаюсь, что может быть как-то иначе.
Или у вас открыты js, css для индексации и бот их видит, или закрыты и бот их не видит. Третьего не дано.
Шаблон мог бы быть не виден для бота если бы, например, у вас он подтягивался js-ом (например, при генерации html страницы js-ом)
И даже в этом случае, в блоке "как посетители видят страницу" - страница, полагаю, отображалась бы целиком, т.к. нет никакой сложности отрисовать результат работы js.
Но если страница генерируется в бэкенде (например, в php-скриптах, или еще где-то) и там же подтягивается шаблон, то бот про файл шаблона, скорее всего, ничего не знает и видит по урлу уже готовый, сформированный html-код.
А про css и js из закрытой директории бот знает, т.к. они в этом html подключаются.
нет, после открытия файлов для индексации ничего не делал. Гугл быстро все обошел. Через несколько дней ни одного предупреждения не осталось.
а что ему мешает?
можно видеть все, но учитывать при индексации/ранжировании только часть
У меня, кстати, то же самое было недавно. Была закрыта директория со всякими служебными файлами. Google ругался на то, что сайт не адаптирован под мобильные устройства, посмотрел - а в той директории хранились сжатые js и css.. Добавил в robots исключения, сообщения пропали и трафик с гугла подрос.
Я так понимаю, это нормально.
"Так увидит эту страницу посетитель сайта" - пользователь ведь видит сайт независимо от директив в robots.txt, Google выкачивает и показывает страницу без учета ограничений.
А при индексации - инструкции robots учитывает, поэтому и ругался на отсутствие адаптива.
Хотя, я, в общем, не seo-специалист. Может и ошибаюсь.
Если вам шорткод нужен, то
в functions.php
function customcodes_title(){ return get_the_title();}add_shortcode('post_title', 'customcodes_title');
В контенте:
[post_title]
Попробуйте в аргументах WP_Query указывать id категории не через cat, а через tax_query
Там можно применить 'include_children' => false
Например:
$args = array( 'post_type' => 'post', 'posts_per_page'=> -1, 'tax_query' => array( array( 'taxonomy' => 'category', 'field' => 'term_id', 'terms' => $catID, 'include_children' => false ) ) ); $query = new WP_Query($args); ... ... ... $args = array( 'post_type' => 'post', 'posts_per_page'=> 10, 'tax_query' => array( array( 'taxonomy' => 'category', 'field' => 'term_id', 'terms' => $childID, 'include_children' => false ) ) ); $query = new WP_Query($args);
P.S. не проверял
Так?
if ($row['zn3']=='красный') { $massrazmer[] = $row['razmer'];}
Был в прошлом году. В этот раз не пойду.
Ну так, потусить можно. Доклады разные.. Была и самореклама от весьма убогих сервисов/сайтиков, и бесполезная вода (первое место в этой "номинации" отдал гуглу), но были и интересные вещи.
Для иногородних - удобный повод в конце мая сгонять в Питер)