Да, я уже понял, исправил выше :)
Видимо где-то вписан инклюд некорректно.
Может как вариант попробовать сделать копию через плагин и затем сравнить вывод?
http://wordpress.org/extend/plugins/custom-post-template/
Livss
Странно, файл же переименовали. Плывет новый шаблон или весь диз на сайте?
kat76
Легко в общем-то. Кодом в css задаете свойство:
body { cursor:url('Имя файла курсора.ani');}
где url - путь к картинке, которая должна быть сохранена в формате .ani , .cur , .svg
Либо плагины в помощь:
WordPress Cursors и Custom Cursor BujanQWorkS
YAGR
Есть такой кросс-платформенный редактор файлов локализации - Poedit, с его помощью можно прямо в визуальном интерфейсе заменять все нужные иностранные слова на те, что вам нужны.
Пример: http://wpsells.com/blog/wordpress-tech/255.html и http://www.moiopit.ru/programmirovanie/dobavlenie-zapisej-v-yazykovye-fajly-vordpressa/
Есть также плагин для перевода, но за его работоспособность на 3.3.+ не ручаюсь. Надо тестить.
serjoo
Честно говоря, действительно не совсем понятно... превью вам нужны?
Лучше кидайте линк на пример подобной страницы как вам нужно, посмотрим конечно.
Можно конечно плагином query-posts
Но если в коде копаться, то подобное (по выводе не только на морде, в т.ч.) по wp-query обсуждалось тут. Плюс разные варианты добавления в код есть тут.
Трудно не видя сайта подсказать, но видимо WP добавляет тег <p> перед началом текста, поэтому текст выглядит как бы чуть ниже картинки.
Если так, то нужно обратить внимание на вывод: p img или .img в style.css для поста или категорий (архивов).
Так и думал, он виртуальный - просто урл генерится плагином. ;)
В общем-то, в настройках плагина: http://site.ru/wp-admin/options-general.php?page=google-sitemap-generator/sitemap.php
найдите и снимите галочку с:
Add sitemap URL to the virtual robots.txt file. The virtual robots.txt generated by WordPress is used. A real robots.txt file must NOT exist in the blog directory!
Раз вы вручную правильный роботс залили.
Проверьте, не уставлены ли у вас плагины PW: PC Robots.txt или SEOiRobots.txt ? Они автоматом генерят роботс. Кроме того, Google XML Sitemaps вполне геренит почти пустой роботс.тхт.
Не совсем понял 😒
Вы плагин кэширования поставьте на свой сайт, например WP Super Cache или Hyper Cache, настройте их, выставите время кэша, сайт будет работать намного быстрее, что самое главное - сервер вздохнет с облегчением.
Тут тесты и подробнее по настройке: http://shooltz.ru/kod-verstka-dizajn/test-plaginov-keshirovaniya-dlya-wordpress.html
Классическая проблема.
Или не хватает памяти у хостера или где-то забыли закрыть теги, неправильная кодировка (правка в простом блокноте) и т.п.
Чтобы быстро решить - надо смотреть логи ошибки.
В общем, как обычно, начать тут.
Получите логи, если сами не справить, кидайте сюда.
Плагин кеширования стоит?