- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всегда хотел проверить разницу выдачи и xml
и узнать в цифрах разницу.
Про персонализацию в курсе, её степень влияния не такая сильная (скоро конкретно в цифрах её оценю, это будет второй эксперимент, который опубликую)
Суть эксперимента:
1. Было взято 2,778 запросов из 4 групп (коммерция, женская тематика, туризм, информационные запросы)
2. Почти одновременно был запущен парсинг поисковой выдачи (xml парсится дольше из-за внутренних ограничений)
3. Для доступа к Я.XML взяли собственные лимиты из Я.Вебмастера, для парсинга выдачи — закрытый прокси-сервис. Ради чистоты эксперимента был указан регион lr=1 (география IP прокси-сервиса — RU (по хуизу), в поле address указан Moscow).
Совпадает позиций — 75%
Не совпадает — 25%
Дамп и больше текста тут: http://habrahabr.ru/post/275197/
TF-Studio, теперь сравни "выдачу Яндекса" с "выдачей Яндекса" (через несколько секунд) - есть вероятность, что получишь те же 75 на 25 :)
/ru/news/23199
Оценил степень рандома - явно ниже 20%
Также очевидно виден алгоритм получения чистых данных, без рандомизации, если делать N-запросов в сутки с интервалом
если смотреть то, что проходит через мой сервис - то я могу сказать о трех типах выдачи
1 - XML - выдача тормозит с п2 на 1-2 дня примерно, в апы лучше ничего не снимать!
2 - броузер с джаваскриптом - тут вс просто органика и есть органика, перед апом и иногда после выката нового алго - все перекосяк
3 - обычный скрипт - помесь п2 с чем то неясным, возможно то, что кукии перемешаны, яндекс не могут понять предпочтения пользователей и поэтому мешает что-то от себя
если смотреть то, что проходит через мой сервис - то я могу сказать о трех типах выдачи
1 - XML - выдача тормозит с п2 на 1-2 дня примерно, в апы лучше ничего не снимать!
2 - броузер с джаваскриптом - тут вс просто органика и есть органика, перед апом и иногда после выката нового алго - все перекосяк
3 - обычный скрипт - помесь п2 с чем то неясным, возможно то, что кукии перемешаны, яндекс не могут понять предпочтения пользователей и поэтому мешает что-то от себя
А вы не пробовали смотреть выдачу "глазами" обывателя?
А вы не пробовали смотреть выдачу "глазами" обывателя?
не слышал о таких
А еще, попробуйте запустить парсинг с 3 разных ip)
Я имел ввиду, что все запросы идут с адресов одного региона.
Отправлено с моего iPhone используя Tapatalk
А еще, попробуйте запустить парсинг с 3 разных ip)
прямо сейчас так и делаю.
снимаю каждый час с новых и сохраняю.
оч интересные данные
Думаю если процентов 40 совпадет, будет норм)
меньше 20 пока