- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Больше вопросов по делу я не увидел.
Вопросы были про продекларированную "лучшесть" поиска.
И еще. Китайское предупреждение. Если будете продолжать вести общение в хамской манере, боюсь, мне придется прибегнуть к полномочиям модератора.
Результаты поиска будут лучше соотвествовать тому, что ищет пользователь. Сравнивать на запросах типа "работа", "погода"
бессмысленно, так как релевантность проверять надо на сложных
запросах, простые любая машина хорошо отработает.
Я не вижу здесь вопроса.
Результаты поиска будут лучше соотвествовать тому, что ищет пользователь. Сравнивать на запросах типа "работа", "погода"
бессмысленно, так как релевантность проверять надо на сложных
запросах, простые любая машина хорошо отработает.
Алексей Гурешов, похоже на содержательность, спасибо. Можно продолжить? :)
Какой подход в предоставлении "релевантной" информации?
Разъясню, чтобы ВЫ не боялись раскрывать свои секреты. В сложных вопросах выдача будет представлена списком сайтов (сейчас в Яндексе), группированием возможных смысловых значений (рядом с выдачей несколько тем) или комбинированием списка самой выдачи (в выдаче - несколько смысловых направлений запроса).
Кстати еще получаем некоторое кол-во постбеков что краулер ведет себя очень агрессивно и некоторым кладет мускуль по кол-ву max соединений.
Ну класть не кладет, но действительно работает чрезмерно агрессивно. Возможно, имеет смысл считать скорость ответа на предыдущий запрос, и на основе её вычислять таймаут перед следующим. И уж точно не стоит с незнакомых серверов качать в несколько параллельных потоков. :)
списком сайтов
Мне кажется подсказки не к чему тем кто делает сложный запрос, тк фактически он уже закладывает в него необходимые уточнения.
Ну класть не кладет, но действительно работает чрезмерно агрессивно. Возможно, имеет смысл считать скорость ответа на предыдущий запрос, и на основе её вычислять таймаут перед следующим. И уж точно не стоит с незнакомых серверов качать в несколько параллельных потоков. :)
Уже вплотную занялись этой задачей. Думаю к вечеру будет готово решение и ночью мы его включим, чтобы не причинять неудобство.
Вообще в настоящий момент мы способны строить индекс со скорость ~115млн документов в сутки.
так как релевантность проверять надо на сложных
запросах, простые любая машина хорошо отработает.
Что понимается под сложными запросами, а что под простыми? Если можно, хотелось бы с примерами.
Все что больше двух слов в теории, в практике наверное от трех и более.
Все что больше двух слов в теории, в практике наверное от трех и более.
Это сложный? Т.е. следует понимать, что при поиске по трех- и более -словным запросам Вы ожидаете лучшую релевантность, чем у лидеров поиска? А как быть с т.н. "простыми", т.е однословными запросами? Как правило, именно релевантная выдача по ним и составляет проблему. Т.к. запросы слишком широки.
Алексей Гурешов, А Вы говорите о гипотетике вот здесь:
Вообще в настоящий момент мы способны строить индекс со скорость ~115млн документов в сутки
Или о реальной нагрузке, которую Ваши сервера способны выдержать? Все так 1300 документов в секунду цифра нешуточная.
И второй вопрос в догонку. Сколько система вообще способна проиндексировать. И с учетом ли это сетевых коэф-тов или без?
Если такая мощь реальна, то как часто будет проводиться обновление базы для того, чтобы оптимизаторы (я к ним не отношусь) поверили в эти цифры?
Думаю к вечеру будет готово решение и ночью мы его включим, чтобы не причинять неудобство.
Ночью боюсь в случае проблем - репортов не будет. Так что имеет смысл включить днем, чтобы если что - сейчас исправить. Linux way короче. :)