- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK открывает набор на курсы по ручному тестированию и углубленному Python
Заявку можно подать до 20 февраля
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
ну ну. проверь сначала и тогда узнаешь
Я всё проверяю перед тем как что-то писать.
Запрос занял 37.0812 сек
Да же по синтаксису это равнозначные запросы с ORDER BY RAND() тут просто RAND() вынесли в переменную.
Вообще, насколько я помню, в стандартном DLE похожие новости выводятся с сортировкой по ID (сначала меньшие IDs). Поэтому ТС пишет о том, что у движка приоритет старым новостям.
P.S. У меня на одном сайте сделано ORDER BY RAND(). Я понял, что не лучшее решение, но для БД с количеством страниц < 1000 изменений в нагрузке не заметил. + Можно кэшировать.
Не обязательно, можно выбирать рандомные записи, только BY RAND() при этом не использовать.
например такой:
SELECT cat,trans,name FROM `cms_freepages` f JOIN ( SELECT rand() * (SELECT max(id) from `cms_freepages`) AS max_id ) AS m WHERE f.id >= m.max_id ORDER BY f.id ASC LIMIT 20;
Вообще, насколько я помню, в стандартном DLE похожие новости выводятся с сортировкой по ID (сначала меньшие IDs). Поэтому ТС пишет о том, что у движка приоритет старым новостям.
P.S. У меня на одном сайте сделано ORDER BY RAND(). Я понял, что не лучшее решение, но для БД с количеством страниц < 1000 изменений в нагрузке не заметил. + Можно кэшировать.
по дефолту там идет поиск как раз из последних новостей.
Дело в том, что много страниц будет с похожим контентом, учитывая что в похожие новости будут залетать всегда один и те же посты. За это гугл карает, уже покарал. Мне кажется, он просто пессимизирует такие страницы и в целом сайты. Поэтому и надо сделать странички максимально разными при этом не теряя в релевантности.
Лёня мой запрос да, немного затупил. Но и твой не рандом. Он по порядку достает с определенного места с бд
Ну я же второй сообщение ниже написал. Как его можно пропустить то?!
Основная задача выводить похожие новости за любое время. Первый запрос берёт случайную ID запись и начиная с неё выводит дальше записи по ID. Эта задача решается с наименьшими затратами. Особенно если надо вывести просто 3-5 новостей для человека.
Далее, если нужен дикий рандом, тогда для этого я выложил второй запрос. Но он по ресурсам дороже.
Поэтому тут уже решает каждый для себя сам, что выбрать.
я раньше этим делом занимался. суть там сводится к тому что у меня скрипт php доставал макс и мин id
потом генерил рандомные айди в этом промежутке. например 100. так как могут быть дыры в бд.
а потом просто доставал записи WHERE id IN(6,890,7854, ...)
я раньше этим делом занимался. суть там сводится к тому что у меня скрипт php доставал макс и мин id
потом генерил рандомные айди в этом промежутке. например 100. так как могут быть дыры в бд.
а потом просто доставал записи WHERE id IN(6,890,7854, ...)
Это прошлый век, у меня было такое для постраничной навигации. Все ID в файлике и потом по ним навигация.
Дело в том, что много страниц будет с похожим контентом, учитывая что в похожие новости будут залетать всегда один и те же посты. За это гугл карает, уже покарал. Мне кажется, он просто пессимизирует такие страницы и в целом сайты.
мне кажется вы надумали проблему... у вас контент из похожих новостей состоит?