- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подумайте более глобально, я в общем говорю, что проще в плане распределения вычилительных мощьностей 1 раз закешировать запрос и просто вытягивать его из базы или каждый раз вычислять позиции сайта учитывая все факторы ранжирования?
А сколько в секунду запросов на Яше? ХЗ сколько.
Я не программер и не инженер по построению подобных систем, возможно я не прав, но мне проще посчитать на калькуляторе, записать на бумажку и посмотреть когда надо что я там насчитал, нежели снова браться за калькулятор и все пересчитывать.
ИМХО.
Подумайте более глобально, я в общем говорю, что проще в плане распределения вычилительных мощьностей 1 раз закешировать запрос и просто вытягивать его из базы или каждый раз вычислять позиции сайта учитывая все факторы ранжирования?
а Яшка и не пересчитывает и не учитывает все факторы ранжирования при каждом запросе, фокус в том что все факторы в конечном итоге просто сводятся к одному по определенной формуле и выставляется определенный вес, ранг или как хотите так и назовите его, суть от этого не меняется.
Я не программер и не инженер по построению подобных систем, возможно я не прав, но мне проще посчитать на калькуляторе, записать на бумажку и посмотреть когда надо что я там насчитал, нежели снова браться за калькулятор и все пересчитывать.
ИМХО.
а теперь представьте что у тебя 14000000 таких разных бумажек ??? как быстро нужную найдешь ?
а теперь представьте что у тебя 14000000 таких разных бумажек ??? как быстро нужную найдешь ?
14 миллионов записей для современных СУБД, если это не Акцесс ;) , не проблема...
14 миллионов записей для современных СУБД, если это не Акцесс ;) , не проблема...
Все зависит от запроса, при неправильном проектировании ляжет любая база, аксесс здесь ничем особенно плохим не отличается...
А кеш несомненно есть, не имеет смысла нагружать сервера повторяющимися запросами, другое дело как часто он сбрасывается, скорее всего обновление кеша и есть собственно ап, имхо
Да просто не может быть кеша по каждому запросу, эт не реально
вот например чел ищет фразу "заработать деньги" естно у Яши есть индекса по этим 2 словам, но он то будет искать не по всей базе. Нужно то на экран выкинуть только первые 10 и он их возьмет соответственно с более "весомых" сайтов. Тут и математика и теория множеств и прочая бурда в ход идет, а не просто тупое создание кеша по каждому запросу, потому как ДАЖЕ ПОЛОВИНА из них потом не повторяются.
я занимался этим вопросом 15 лет )))
реально все... но то что кешировать имеет смысл не все запросы согласен на 100%
я занимался этим вопросом 15 лет
не знаю, чем вы там занимались. кэширование - один из самых эффективных методов ускорения. никакая математика с ним не сравнится (что впрочем не исключает использования и математически сложных алгоритмов то же)
и потом, КАК можно говорить, что чего-то нет, если это есть, всем видно, мешает, и есть методы преодаления, которые показывает, например, BigBrother?
Кэширование результатов запросов в Яндексе и здесь /ru/forum/56447 - подробно описаны мои предположения.
Кроме того есть "Ответы Александра Садовского на вопросы веб-мастеров":
Вопрос 3. Где и сколько хранится кеш поиска?
а) в каждом метапоиске?
б) они обмениваются между собой?
в) кеш скольких поисков хранится?
г) есть ли минимальный срок, или влияет только загрузка?
Ответ: Каждый запрос попадает на «свой» кеширующий метапоиск. В случае проблем на этой машине запрос уходит на другой метапоиск. Кеш очищается в моменты обновления базы, а также выборочно чистится в случае заполнения диска.
яндекс, как и любая другая система поиска при своей выдачи учитывает геотаргетинг
Пока нет фактов, подтверждающих это для Яндекса.
теперь каждый запрос формирует в среднем по 20 страниц
Вы действительно думаете, что кэш позиций для каждой страницы хранится отдельно?
Кстати, достаточно давно, кэш для выдачи по 10 и 50 страниц возможно был в Яндексе различным и первыми признаком апдейта было как раз различие в выдаче по 10 и по 50 страниц.
это еще без учета изменений связанных с проплаченными позициями
Без углубления в вопрос о существовании таких позиций (уверен - их просто нет), почему нельзя вставить их сразу в кэш позиций для выдачи по данному запросу? Что меняет проплаченность?
и всякого рода яндекс.директа
а это здесь при чем?
спасибо люди добрые за то что навтыкали в репу )))