response

response
Рейтинг
324
Регистрация
01.12.2004
bliiiiiiiiina:
Увы, но это практика... Решила попробовать с адалтом и зря связалась. Конвер маленький, последние доры доживут свое и связываться больше не буду. Мало того, что конверт маленький, так еще и шейвят по черному...

не стоит вешать нос, адалт на вебмастеринге не заканчивается.

hikky:

Только на внутренней оптимизации?

бгг, они до сих пор отказываются верить 😂

sokol_jack:
Круть.
Спалить тебе фришных иконок красивых? ;)

да не, спасибо :) я на иконфайндере найду если че :) хотя на самом деле меня иконки студии удовлетворяют полностью, ну и плюс 1-2 пака фришных, классических (вылетел автор, но они реально по всем интернетам, там еще статистика такая с розовым, синим и зеленым столбцами :))

Str256:
1. А она должна? Там же сейчас по другому вроде.
2. Если анализ и ведётся, то не по единичному посетителю. И с большой погрешностью. Вон у асессоров сходимость говорят 40%. Или вы хотите просто потеоретизировать как это можно сделать?

ну, клики-то до сих пор считают, значит это кому-нибудь нужно. но вообще у меня свои задачи. я вижу на собственных кхм.. серпах, что люди часто находят несколько документов, на которые уходят, не возвращаясь на серп. Есть определенный процент откровенно нерелевантных переходов, оканчивающих работу юзера с выдачей. Т.е. юзер нашел и то, что искал, и попутно нашел что-то совершенно левое, попавшее в топик из-за кривизны ранжирующего алгоритма, что, тем не менее, его заинтересовало. Вот и ищу варианты, как, кроме полного отематичевания всех запросов и документов, занулевывать данные о подобных левых переходах.

SplashWeb:
жесть) response, а что за парсер?

ну вот такой вот волшебный парсер, заточил его под оператора сильно, как интерфейсно, так и архитектурно, в общем вбивание регэксп превратилось в один большой кусок удовольствия, а остальное вообще автономно делается. Кстати, про сорок минут не соврал - парсер считает статистику по времени по каждому проекту, в итоге конкретно по ката-лог.ру вышла 21 минута работы, остальное - на автономный парсинг с сохранением в бд (sql-дамп на выходе). Тут некоторые товарищи видели его скрины, но приложу на всякий случай одну штучку: http://gyazo.com/e6a9600a647c69ea302c184c87b1fe22.png

Это окошко по созданию правил. Там много всяких контекстных менюшек, сильно упрощающих работу, но щас их не видно. Многие окошки умеют прятаться/раздвигаться, так что на скрине на полный экран отображается формочка с правилами, но если вверху там кликнуть по иконке, то слева вылезет формочка с процессами. Ну в общем такой вот комбайн за пару месяцев :)

Если кому надо, в личке отдам линк на sql-дамп базы всего kata-log.ru 🍻

(нормализации нет, но там записей-то всего ничего - чуть больше 15к :))

sokol_jack:

А что конкретно ты сказать-то хотел? ;)

хотел спровоцировать их на спор, устроить соревнование на время, и потом повыпендриваться своим парсером.

Str256:
response, у вас явно - посетитель ориентировался по сниппету. В том числе НПС, а то, что написано в анкоре НПС не обязательно написано на сайте. Плюс сниппет НПС может формироваться из ЯК, дескрипшен. Часто бывает заходишь по НПС - релевантности ноль - не нахожу искомого ни в тексте страницы ни в сохранёнке и выхожу обратно.

А ПС - из-за ссылочного ранжирования, часто хватает найден по ссылке. Потому сайт и в серпе.

речь-то не о том, почему сайт в серпе :)

Str256:
Можно по времени нахождения на сайте сравнивать. У нерелевантного будет меньше.

а вот и нет. искал "обои", нашел обои и порнуху. обои сохранил и закрыл сайт, на порнушке задержался. конечно, порнушный сайт не то чтобы без слова "обои" был, но обоев там была ровно одна штучка, на страничке модели, в остальном это был обычный порно-блог.

вопрос в том, что ПС, казалось бы, должна поднять релевантность порно-блогу, равно как и тому сайту по обоям, раз я ушел на оба этих сайта (причем на порнушку кликнул уже после линка на сайт с обоями). Но очевидно ведь, что порнушка не релевантна обоям в целом.

Перефразируя: как [при анализе переходов с серпа] ПС должна относиться, и как должна технически выявлять страницы, которые просто понравились пользователю, а не являются релевантными запросу?

sngrl:
Написал сам за одну ночь)))
sngrl:
У меня "тыренье" заняло около 2х-3х часов непрерывной работы скрипта.

там работы в сумме на сорок минут.

-= Serafim =-:
Отнюдь, из практики говорю.

гм. т.е. если мой сайт вылез и держится в топ по вч, то либо это не вч, либо я не вылез?

Bazzillio:

легко, есть такое дело - оффлай бизнес и тем там поболее чем в онлайне и заработки соостветственно. я с такими людьми работаю :)

да ты трех слов без ошибки написать не можешь, какой оффлайн бизнес? :) металлолом, разве что, по дворам собирать. я бы предположил, что ты манагер чего-нибудь там, но манагеров стараются брать от восемнадцати, так что вряд ли.

давай, короче, тролль интереснее! пока что весьма душно выходит.

Всего: 3770