- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Это Вы не можете сделать выводы, потому, что не имеете информации о проделанной работе. Я же выводы сделал, так как я знаю что я сделал и как провел анализ :)
Что значит по одному сайту? :)
Когда я просмотрел всю десятку, более того, проанализировал каждый сайт, и не просто задумчиво попивая пивко и лениво поглаживая мышь, а проделав измерения ВИЦев, текстов анкоров,....
Хорошо, допустим. Тогда, чем вы объясните такое падение?
wolf, ну подумайте, как Яндекс будет обрабатывать "анкор файл" из миллионов ссылок со скоростью выдачи серпа на запрос 1 сек? Причем все миллионы ссылок могут содержать запрос ("поиск", например, или авто, или "яндекс",..). Смотрите мое сообщение:
/ru/forum/comment/2112443
Хорошо, допустим. Тогда, чем вы объясните такое падение?
Я то уже объяснил :)
Теперь Ваша очередь.
wolf, ну подумайте, как Яндекс будет обрабатывать "анкор файл" из миллионов ссылок со скоростью выдачи серпа на запрос 1 сек? Причем все миллионы ссылок могут содержать запрос ("поиск", например, или авто, или "яндекс",..). Смотрите мое сообщение:
А зачем там содержать миллионы записей? Миллион уникальных анкоров вряд ли отыщется для какого-либо документа. В анкор-файл можно складывать только уникальные анкоры, и для каждого просто хранить вес как взвешенную сумму ссылочных весов доноров, его содержащих (у меня даже позорения, что не только полные совпадения, а иногда даже точное вхождение подстрок суммируется - но там, наверное, с ссылочными весами сложнее - для каждого термина свой запоминать придется, и с номерами терминов в пассаже как-то выкрутиться надо). Опять же, много чего можно отфильровать на этапе формирования анкор-файла. Не думаю, что в таком случае среднестатистический анкор-файл окажется многим больше среднестатистического документа.
А зачем там содержать миллионы записей? Миллион уникальных анкоров вряд ли отыщется для какого-либо документа. В анкор-файл можно складывать только уникальные анкоры, и для каждого просто хранить вес как взвешенную сумму ссылочных весов доноров, его содержащих. Опять же, много чего можно отфильровать на этапе формирования анкор-файла. Не думаю, что в таком случае среднестатистический анкор-файл окажется многим больше среднестатистического документа.
Такой взгляд на вещи очень не разумен и навряд ли выдержит серьезную критику.
Утрируя: например есть 30000 страниц с разными ВИЦ, тошнотами, числом ссылок на странице с текстами ссылок типа "комп айди гениус цена 13 рябчиков", либо "книжка такая сякая исбн номер такой". Как сделать быстро расчет на запрос "книжка" или "комп"? А если запрос будет "книжка" ИЛИ "комп"?
Число уникальных анкоров может все равно быть огромным, а тем более комбинаций этих анкоров. И все это считать на лету?
Про то СКОЛЬКО жирных ссылок учитывается (1, 2, 12, 15,...) и есть ли там группировки я пока помолчу :)
Утрируя: например есть 30000 страниц с разными ВИЦ, тошнотами, числом ссылок на странице с текстами ссылок типа "комп айди гениус цена 13 рябчиков", либо "книжка такая сякая исбн номер такой". Как сделать быстро расчет на запрос "книжка" или "комп"? А если запрос будет "книжка" ИЛИ "комп"?
Да также, как и при расчете по обычному документу! Каждый уникальный анкор будет образовывать отдельный пассаж со своим весом, расчитанным на основе характеристик доноров, его содержащих. Понятие веса пассажа, кстати, есть в текстовом ранжировании. Пассаж, входящий в тег title ведь весит не так, как текст из body, не так ли? ;) Тем более, что в анкор-файле не нужно искать в пределах документа, все запросы обрабатываются на уровне пассажей, т.е предложений...
Число уникальных анкоров может все равно быть огромным, а тем более комбинаций этих анкоров. И все это считать на лету?
Число пассажей в обычном документе тоже может быть довольно большим. Справляется же Яндекс как-то с документами в полмегабайта?
Как думаете на лету(!!!) не хило Яндексу просчитать вклад для 100 000 ссылок в релевантность?
Не думаю, что он это делает "на лету".
На "лету". Пример:
Яндекс не знает, какой запрос Вы зададите, как он может для несуществующего еще запроса типа "крабовых палочек с Сахалина" просчитать все в междуапдейтное время, в том числе ссылочную компоненту?
По Вашей логике Яндекс и вовсе, чтоб не утруждаться в апдейты, не должен индексировать ссылки с неизвестными ему анкорами. Коли запрос настолько редкий, то достаточно отранжировать по тексту.
Вообще, представив сколько подобных запросов происходит в единицу времени и мощности необходимые для расчётов "на лету", мне представляется это маловероятным. Ничтожно маловероятным.
Вообще, представив сколько подобных запросов происходит в единицу времени и мощности необходимые для расчётов "на лету", мне представляется это маловероятным. Ничтожно маловероятным.
Расчитать все и «не на лету» то же представляется маловероятным. Да и где это хранить? Реально — делать часть на лету, часть не на лету.
Идея диалога Миныча и Вольфа как раз и заключается в том сколько делается на лету, а сколько нет. Миныч считает что больше делается на лету, Вольф меньше. Ну и как следствие — если прав Миныч, то «погрешность» у яндекса больше, имеется ввиду то, что ссылки все не учитываются для «Ссылочного», но вес учитывается со всех.
ПС: народ, пусть они поспорят, не мешайте, выводы все равно окажутся у каждого свои. Но мешать титанам не стоит, пусть палят темки ;)
В ссылочном учитывается НЕ ЛУЧШАЯ ссылка, а некоторое число ЛУЧШИХ ссылок, которое значительно больше 1. Поэтому отклонения могут быть, но небольшие.
Повторю заданый выше вопрос:
Почему же сайт упал? Изменилось соотношение количества/качества лучших ссылок у него и всех в топе?
Миныч, как я понимаю, если ссылаться с разных страниц одного сайта, с разными анкорами на морду своего сайта, то на ссылочное повлияет десяток ссылок, а остальные просто добавят этим ссылкам коефициенты веса ?
P.S. Извиняюсь, если не правильно понял разговор о высоких метериях.
Идея диалога Миныча и Вольфа как раз и заключается в том сколько делается на лету, а сколько нет. Миныч считает что больше делается на лету, Вольф меньше.
Скорее наоборот :) На сколько я понял Миныч считает что Яндекс выбирает лучшие ссылки, допустим из тогоже анкорфайла, а остальные ссылки в той или иной степени игнорит, а вольф считает что Яндекс учитывает весь файлик. Хотя 3 утра, можети неправильно понял, завтра еще почитаю.