Futuris

Futuris
Рейтинг
74
Регистрация
05.07.2014
karpo518:

Сложности с Wordpress начинаются, когда требуется реализация нестандартных решений.
Для разработчика Modx - это очередная работа с API, ничего серьезного. Для разработчика на Wordpress - это поиск стандартных решений, борьба с ограничениями найденного решения, после которого приходится изучать работу найденного решения и модифицировать её под себя. Тут уместно будет сказать, что порог вхождения в API Wordpress выше чем в Modx, и само API Wordpress не такое гибкое. В итоге многие нестандартные с точки зрения разработчика, но довольно простые вещи с точки зрения пользователя в wordpress либо невозможны либо требуют значительного времени на разработку.

Да-да. Именно необходимость обтачивать напильником танк чтобы получить БТР при более менее нестандартном решении уже задолбала. Поэтому начинаем гонять MODx. Спасибо за развернутый ответ!

Я предельно четко описал свою мотивацию. Топик создан с одной единнственной целью - услышать отзывы людей реально и желательно давно работающих с MODx, поскольку я пока что сделал вывод что на нем можно делать нечто поинтереснее чем на WP в плане сложности структуры. При этом MODX - не Drupal, который осваивать придется значительно дольше и бесплатен в отличии от Bitrix. Задач у меня никаких нет и ТЗ тоже. Присматриваюсь чисто на перспективу. Если на вашем форуме это запрещено (в отличии от откровенного хамства, на которое не раз натыкался и всем до этого по барабану) - удаляйте ветку.

У всего есть свои плюсы и минусы. Меня интересует сейчас не выбор платформы для всех решений, а то, на чем лучше делать средней величины корпоративные сайты, подразумевающие разделение ролей и уровней доступа. Не порталы. Наш опыт работы с WP показал, что он для этого не слишком удобен. И пока не хочется связываться с Битриксом и другими платными решениями. Пока я нахожу, что для обозначенных целей пригоден MODX, плюс считается что в него удобнее интегрировать дизайн.

yet_warm:
MODX вопчето вроде не CMS, а CMF, чего сравнивать...

Пардон, действительно CMF.) Вот и интересует что можно получить работая с ней :). К примеру на WP не сделаешь сайт с удобным разделением полономочий для офисных работников (ну типа маркетолога, менеджера и т.д. с разными допусками в разные разделы). На MODX это вроде не проблема.

В холивары не ввязываюсь 😂 . На WP достаточно поработали, в свое время перешли с Joomla. На тот момент ее знали лучше, но перешли на WP и не пожалели - получили более широкие (на наш взгляд конечно) возможности. Теперь хочется еще более гибкой работы.

EstranhoRu:
закроешь css или js от гугла он также начнет ругаться

Да, именно об этом я и написал. Это касается адаптивных сайтов.

alexdosson:
Отписываюсь. Ошибка до сих пор осталась в google webmaster tools..

---------- Добавлено 30.08.2015 в 23:50 ----------



.

Иногда там не быстро происходит. У меня месяцами уменьшяются ошибки микроразметки после ее внедрения. Вы пользуйтесь инструментом проверки он есть и в Гугле.

---------- Добавлено 03.09.2015 в 10:11 ----------

alexdosson:
А можно узнать что означает
Disallow: /20*/*
Disallow: /page/*
Disallow: /spektr/

и почему мы запрещаем индексировать Disallow: */comment-page-* ?

Я выложил robots по умолчанию. Там закрыты типовые служебные каталоги WP. У вас этот перечень может быть другим.

На одном своем html-ном сайте я также закрыл:

Disallow: /errors/
Disallow: /cgi-bin/
Disallow: /css/
Disallow: /images/
Disallow: /fonts/

Важен принцип - закрывайте служебные каталоги, но помните, что в связи с мобильными версиями (если у вас адаптивный сайт) Гугл последнее время также требует доступа к файлам CSS и JS.

P.S. Яндекс индексирует по моим наблюдениям медленнее Гугла. Фактически это совпадает с апдейтами поисковой базы (раз прим. в 2 недели), и иногда он делает это по нескольку страниц (когда новых много) за один раз.

Alex Boydakov:
после удаления на моем сайте 100 страниц, произошел обвал в бездну. трафик сиз гугла до сих пор не вернулся на прежнее место. скорее всего удалил важные страницы, по которым и был основной трафик. так что тут нужно быть внимательным

Я тоже притормозил немного - удаляю постепенно. Но я достаточно - четко знаю откуда траффик, а удаляю побочный отживший ассортимент.

alexdosson:
Блин, не совсем... Я не понимаю, почему он написал, что сайт закрыт к индексации, ведь судя по тому, что я прочитал - это же не так...

User-agent: *
Allow: /
Host: site.name
Sitemap: http://site.name/sitemap.xml


Ваша директив также должна работать - это можно проверить воспользовавшись сервисом проверки robots.txt в Яндексе https://webmaster.yandex.ru/robots.xml Просто вставьте ваш домен и нажмите "Загрузить robots.txt с сайта" затем внизу добавьте URL любой страницы и увидите. Если покажет зеленым - значит страница разрешена для индексации. Если красным - значит запрещена и написано почему.

Но ваш robots.txt неудобен т.к. вы сразу директивой Allow: / разрешаете роботу индексировать все, а это неправильно. Есть еще куча служебных каталогов, файлы ядра и т..д., которые индексировать не нужно.

Вот мой robots.txt, первая директива Disallow без слэша, и поэтому не является запретительной. Но зато это дает мне возможность избирательно открывать необходимые для индексации каталоги директивой Allow

User-agent: *
Disallow:
Host: www.mysite.ru
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/
Disallow: /spektr/
Allow: /wp-content/uploads
Allow: /wp-content/themes/mysite
Allow: /wp-content/plugins
Disallow: /trackback
Disallow: */trackback
Disallow: */*/trackback
Disallow: */*/feed
Disallow: */feed
Disallow: /*?*
Disallow: /tag
Disallow: /category/
Disallow: /author/
Disallow: /20*/*
Disallow: /page/*
Disallow: */comment-page-*
Disallow: /pervyj-kommentarij/

В итоге - не могу сказать точно почему не работает ваш вариант. Но ручаюсь на 100% что мой сработает. Т.к. я уже не один десяток сайтом выпустил с ним. Вы можете также убедиться в его работоспособности, если подставите этот вариант в ссылку приведенную выше. Плюс этого сервиса в стом, что не нужно каждый раз делать изменения в реальном файле robots.txt, просто меняя его на этой странице вы видите как будет "в реале" работать та или иная директива. А затем выбрав нужный вариант - пропишите его в файле.

P.S. Мой файл для сайтов на WP, соответственно у вас могут быть другие запрещенные и разрешенные каталоги. Но суть от этого не меняется.

alexdosson:
Простите, как это закрыт? Посмотрите, пожалуйста, на этот топик, я спрашивал

/ru/forum/907584

Это мне неправильно написали что ли?

https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml

#Пример корректно составленного robots.txt, при обработке
#которого директива Host учитывается

User-Agent: *
Disallow:
Host: www.myhost.ru
Всего: 173