Да-да. Именно необходимость обтачивать напильником танк чтобы получить БТР при более менее нестандартном решении уже задолбала. Поэтому начинаем гонять MODx. Спасибо за развернутый ответ!
Я предельно четко описал свою мотивацию. Топик создан с одной единнственной целью - услышать отзывы людей реально и желательно давно работающих с MODx, поскольку я пока что сделал вывод что на нем можно делать нечто поинтереснее чем на WP в плане сложности структуры. При этом MODX - не Drupal, который осваивать придется значительно дольше и бесплатен в отличии от Bitrix. Задач у меня никаких нет и ТЗ тоже. Присматриваюсь чисто на перспективу. Если на вашем форуме это запрещено (в отличии от откровенного хамства, на которое не раз натыкался и всем до этого по барабану) - удаляйте ветку.
У всего есть свои плюсы и минусы. Меня интересует сейчас не выбор платформы для всех решений, а то, на чем лучше делать средней величины корпоративные сайты, подразумевающие разделение ролей и уровней доступа. Не порталы. Наш опыт работы с WP показал, что он для этого не слишком удобен. И пока не хочется связываться с Битриксом и другими платными решениями. Пока я нахожу, что для обозначенных целей пригоден MODX, плюс считается что в него удобнее интегрировать дизайн.
Пардон, действительно CMF.) Вот и интересует что можно получить работая с ней :). К примеру на WP не сделаешь сайт с удобным разделением полономочий для офисных работников (ну типа маркетолога, менеджера и т.д. с разными допусками в разные разделы). На MODX это вроде не проблема.
В холивары не ввязываюсь 😂 . На WP достаточно поработали, в свое время перешли с Joomla. На тот момент ее знали лучше, но перешли на WP и не пожалели - получили более широкие (на наш взгляд конечно) возможности. Теперь хочется еще более гибкой работы.
Да, именно об этом я и написал. Это касается адаптивных сайтов.
Иногда там не быстро происходит. У меня месяцами уменьшяются ошибки микроразметки после ее внедрения. Вы пользуйтесь инструментом проверки он есть и в Гугле.---------- Добавлено 03.09.2015 в 10:11 ----------
Я выложил robots по умолчанию. Там закрыты типовые служебные каталоги WP. У вас этот перечень может быть другим.
На одном своем html-ном сайте я также закрыл:
Disallow: /errors/Disallow: /cgi-bin/Disallow: /css/Disallow: /images/Disallow: /fonts/
Важен принцип - закрывайте служебные каталоги, но помните, что в связи с мобильными версиями (если у вас адаптивный сайт) Гугл последнее время также требует доступа к файлам CSS и JS.
P.S. Яндекс индексирует по моим наблюдениям медленнее Гугла. Фактически это совпадает с апдейтами поисковой базы (раз прим. в 2 недели), и иногда он делает это по нескольку страниц (когда новых много) за один раз.
Я тоже притормозил немного - удаляю постепенно. Но я достаточно - четко знаю откуда траффик, а удаляю побочный отживший ассортимент.
User-agent: *Allow: /Host: site.nameSitemap: http://site.name/sitemap.xml
Ваша директив также должна работать - это можно проверить воспользовавшись сервисом проверки robots.txt в Яндексе https://webmaster.yandex.ru/robots.xml Просто вставьте ваш домен и нажмите "Загрузить robots.txt с сайта" затем внизу добавьте URL любой страницы и увидите. Если покажет зеленым - значит страница разрешена для индексации. Если красным - значит запрещена и написано почему.
Но ваш robots.txt неудобен т.к. вы сразу директивой Allow: / разрешаете роботу индексировать все, а это неправильно. Есть еще куча служебных каталогов, файлы ядра и т..д., которые индексировать не нужно.
Вот мой robots.txt, первая директива Disallow без слэша, и поэтому не является запретительной. Но зато это дает мне возможность избирательно открывать необходимые для индексации каталоги директивой Allow
User-agent: *Disallow: Host: www.mysite.ruDisallow: /wp-login.phpDisallow: /wp-register.phpDisallow: /cgi-bin/Disallow: /wp-admin/Disallow: /wp-includes/Disallow: /wp-content/Disallow: /spektr/Allow: /wp-content/uploadsAllow: /wp-content/themes/mysiteAllow: /wp-content/pluginsDisallow: /trackbackDisallow: */trackbackDisallow: */*/trackbackDisallow: */*/feedDisallow: */feedDisallow: /*?*Disallow: /tagDisallow: /category/Disallow: /author/Disallow: /20*/*Disallow: /page/*Disallow: */comment-page-*Disallow: /pervyj-kommentarij/
В итоге - не могу сказать точно почему не работает ваш вариант. Но ручаюсь на 100% что мой сработает. Т.к. я уже не один десяток сайтом выпустил с ним. Вы можете также убедиться в его работоспособности, если подставите этот вариант в ссылку приведенную выше. Плюс этого сервиса в стом, что не нужно каждый раз делать изменения в реальном файле robots.txt, просто меняя его на этой странице вы видите как будет "в реале" работать та или иная директива. А затем выбрав нужный вариант - пропишите его в файле.
P.S. Мой файл для сайтов на WP, соответственно у вас могут быть другие запрещенные и разрешенные каталоги. Но суть от этого не меняется.
https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml
#Пример корректно составленного robots.txt, при обработке#которого директива Host учитываетсяUser-Agent: *Disallow:Host: www.myhost.ru