про крайней мере с яндексом, можно работать через просто davfs, без всяких там web
Мне кажется, то, что написано в скриншоте - понятнее уже не бывает: marked as crashed and should be repaired, как ещё можно написать, чтобы вебмастер понял? 😕
Лечится, как правило, несложно:
root@myserver:/bla-bla-bla# mysql -uroot -p my_database_name Enter password: ******************* mysql> repair table dle_online; mysql> \q Bye root@myserver:/bla-bla-bla#
Хм. Давайте подсчитаем. Пусть будет 500 тыс уников в сутки. Для справочных сайтов нормальное количество просмотренных страниц на один уник положим равным трем, т.е. 1.5 млн просмотров в сутки. В сутках 86400 сек. Таким образом, среднее количество запрашиваемых страниц = 17.4 стр/сек. В жизни ничего среднего не случается, в сайтовые часы пик нагрузка легко может быть 10-кратной от средней, т.е. 174 страницы в секунду (это мы еще не учитываем статику - всякие цссы, скрипты и красиво оформленные картинки). Предположим, что один апачевский процесс в среднем за секунду справляется с любым запросом. Т.е. в памяти одновременно будут висеть порядка 174 процессов, каждый эдак мегабайт на 50, т.е. апачам потребуется минимум 8 ГБ памяти сервера.
Такс, начинаем судорожно искать прайсы на выделенные серваки с 8 ГБ памяти и по цене 800 руб/месяц. 🍿
Тем не менее Яндекс, к примеру, понимает в роботсе Clean-param, но что-то у меня любопытство взыграло, не поленюсь, задам сегодня вопрос Платону.
Впрочем, если сайт даже умеет определять разрешенные параметры, все равно правильнее урлы с вопросом использовать только для служебных целей и запрещать их индексацию как класс.
Насчёт проверки на порядок следования GET-параметров - это уже паранойя, имхо, а так - идеологически полностью согласен. :)
не я начал разговор, что у друпала есть универсальное решение. Я всего лишь оспорил это утверждение. Был бы разговор про решения яндекса - ссылался бы на урлы яндекса. :)
При этом мне известны самописные сайты, которые проходят любую проверку на отсутствие дубликатов по урлам. Я это к тому, что проблема решаема, но не в режиме ширпотреба.
Лично я считаю, что если
http://drupal.org/project/issues/globalredirect?status=All&categories=All
и
http://drupal.org/project/issues/globalredirect?status=All&categories=All&musor=1
отдают одинаковую страницу, то это принято считать мусором, на который роботсов не напасёшься 🙄
Скажу честно: насчет плагина - не знаю. Но мое имхо - всегда казалось, что такие вещи нужно встраивать в ядро системы, а не в плагины.
Только самопис, с контролем допустимых GET-параметров по каждому допустимому url. Подобные коробочные решения лично мне неизвестны
Мне кажется, ответ здесь