((GoodWin))

Рейтинг
82
Регистрация
30.09.2010

Тишина. Омск. Пока только это:

Этот платеж будет оформлен до 28 февраля, если в вашем аккаунте нет задержек платежей.

Написал в саппорт ещё 10 дней назад, ответа так и нет. Что делать-то? Почему теперь приходится показывать совершенно нерелевантную рекламу?

Конкуренты - это другой случай. У меня же проект сам по себе - некоммерческий. Но реклама на нём, понятно, коммерческая. А какая ещё может быть реклама в принципе? Должна показываться реклама вузов, МБА, курсов, семинаров и т.п. А теперь прёт всё подряд - новости, банки, кредиты, авто и пр. Что с этим делать? Кому это нужно? Системе? Или рекламодателям?

Листов блокировки сейчас - 7. Это накопилось за всё предыдущее время. И работало прекрасно - всё отрубалось. Теперь же при попытке заблокировать очередной ненужный сайт выдаётся сообщение "Превышен лимит заблокированных сайтов". И что теперь делать? "Отматывать" этот список обратно с риском того, что в дополнение к сегодняшней нерелевантности повалится ещё и "поза- и прошлогодний" мусор?

В GAS у меня, например, за 3 года уже 406 сайтов из мусора заблокировано и - ничего, отлично работает.

((GoodWin)) добавил 22.02.2011 в 13:59

Коллеги, разберитесь и ответьте по существу, пожалуйста, и не морочьте мне голову.

Здравствуйте,

Вы сообщили, что написали письмо в компанию Бегун и не получили на него ответ.

Если Вам не ответили на письмо в течение двух рабочих дней, то вполне возможно, что Ваше письмо попало в спам по какой то причине. Или ответ специалистов компании не пропустили Ваши "спаморезки".

Какой-такой ещё спам? Сообщение из формы в партнёрском интерфейса на сайте Бегуна??? Дожили...

big boy:
А не проще создать новую страницу с этим же именем и повесить туда обычную рекламу AdSense?

Пустую, что ли?

Андрюшка:
Но все же почтой или по системе денежных переводов - безопасней)

Так же думаю. Вряд ли воспользуюсь чем-то иным.

Helz:
У меня складывается устойчивое мнение, что все последние новомодные штучки (алгоритмы) - это попытка сделать хорошо, но реализация делает "как всегда". Отсюда и дикие, не поддающиеся никакой логике и никакому алгоритму, примеры выдачи и ранжирования сайтов относительно друг друга. А мы с вами, пытаемся за него определить какие-то факторы в удачном (не удачном)продвижении, в то время, как Я давно уже сам не понимает как и что работает в действительности.

Вот! Человек почти уловил мои мысли. Я бы сказал ещё жёстче, но уж умолчу. Иначе кто-то известный из Яндекса зачислит меня в свои личные враги.

Я занимался такими массивами данных ещё 20 лет назад - в SuperCalc 5. 300 электровозов, 600 локомотивных бригад, 170 слесарей-ремонтников и невообразимая мешанина отказов, выходов из строя, вышедших за пределы параметров, сотни диагностических показателей. ЧФ - сплошь и рядом. И мы в этой мешанине не обнаружили НИЧЕГО, кроме того, что зимой вот этих отказов больше, чем летом. Любой помощник машиниста мог ... по контактору, любой бухой слесарь мог наплевать на какую-нить мелкую неисправность, любой машинист сделать "экстренное" и, - как следствие, куча траблов после этого... Чем дальше в лес, тем больше дров. Вообще считаю, что ранжирование сейчас - конкретный головнобольный замут. Прав всё же был Людкевич когда-то о том, что алгоритмы должны быть простыми. Иначе когда-нибудь мощностей на их обработку потребуется больше, чем на всю суммарную остальную работу Яндекса.

Об этом можно было рассуждать когда сайты были простые, они были примерно одинаковые по функционалу, и сам пользователь был проще - открыл, посмотрел, скачал, матюкнул, закрыл. Потому что эту простоту предписывали делать низкая скорость сети и низкая производительность компьютера. Сейчас же всё не так - это понятно каждому.

Адепт:
Он еще про возможности Гугла даже не догадывается, особенно про то, какие у них данные есть :D

Уважаемый, вы никак в толк не возьмёте следующий факт: объектный измерительный состав статистики - он всё тот же. Он нисколько не изменился. Веб-страница как таковая (вот она загрузилась в браузер), время нахождения на ней, сделанные CTR-клацы на ней и передвижение по ней. Последнее можно только передавать, если есть механизм в счётчике, подобный которому есть в кодах РСЯ. Вот и всё. По какой ПФ пришёл, с какого ресурса пришёл - это параметры извне, их не рассматриваем, ибо это поведенческий анализ, т.е., уже находясь на странице. И при этой ОСТАВШЕЙСЯ скудности параметров мы можем наблюдать чудовищное СЕГОДНЯШНЕЕ многообразие форм и видов поведения пользователя. А также уже ставшее фактом огромное разнообразие веб-ресурсов (одно взаимообусловливает другое). Которые, в свою очередь, сделаны СЕГОДНЯ огромным разнообразием разработчиков самой РАЗНОЙ квалификации. Всё это никогда уже не уложится в модели. Допущение "при прочих равных условиях" навсегда покинуло интернет.

((GoodWin)) добавил 11.01.2011 в 15:30

юни:
обыденой ситуацией, имеющей чёткую корреляцию на сотнях графиков, полученных с тысяч ресурсов.

Изменится идеология веб-ресурсов (это происходит постоянно сейчас), изменятся инструменты проектирования (это происходит постоянно сейчас), изменятся пользователи, проектировщики, администраторы и т.п. - сегодняшние накопленные массивы данных и сделанные на их основе модели ЗАВТРА мгновенно превратятся в алгоритмический ненужный хлам. Да, может быть, я и не предстваляю себе эти массивы данных (гГы-гы-гы, хотя имею с ними дело уже двадцать лет), но Вы, видимо, не представляете себе видоизменчивость всех нюансов и параметров самого интернета.

((GoodWin)) добавил 11.01.2011 в 15:38

юни:
Не могу сказать, что он мне сильно понятен. Каким образом это относится к обсуждаемой ситуации?

Значит, мне дальше бесполезно приводить Вам другие аргументы.:)

SSA.RU:
не очень понял вообще вопрос:) включите поведеньческий и посмотрите что будет, что может быть проще. Вообще цифра загадочная в статистике, по моей практике Ваши действия с блоками мало влияют на нее, ну нет у нас страниц на сайтах без прокрутки, что не ставить нижний блок? ну я отключал нижние блоки ничего не менялось координально, в пределах обычной погрешности.

Страницы, в общем-то, длинные, "ленточные" как бы, с равноценным контентом по длине. И хоть как юзер доберётся до конца страницы. И почему - вот у меня показывает тот же параметр 58%... Не может быть такого... Да и при включенном поведенческом по выходным 2 из 3 блоков иногда не отображаются. Всего три блока, причём далеко не на всех страницах... Уников - до 5000 в сутки.

юни:
Какие "эти"? И кто мешает создать новые?

Вот очень хороший радикальный пример, который может иллюстрировать оное. В ранней версии Outlook Express была такая фича - после 100-го запуска программа предлагала запустить сжатие файлов почтовой корреспонденции. Так вот, за эти 100 запусков можно было бы получить не более десятка сообщений, а можно было бы за одну рабочую сессию (рабочий день, не закрывая программы) сгрузить 100 Мб почтовых сообщений.

Нет и не будет сегодня никаких новых методик выявления новых (да и что значит "новых") поведенческих факторов. Поставить сегодня поведенческие анализ-технологии - это всё равно что пытаться ловить когда-то завезённую в отдельный пруд скумбрию, когда за многие годы в нём развелась всякая другая разная быстроразмножающаяся и свежогниющая рыбохрень.

юни:
((GoodWin)), то же самое можно сказать про традиционные факторы, ссылочные и текстовые: пресловутые "грамотные перелинковки", "работа над семантическим ядром", "наращивание ссылочной массы" и прочие "правильно составленные robots.txt" - не имеют совершенно никакого значения для пользователя, которого на "безупречном сайте" не устроили цены, отсутствие фоток коллектива и присутствие телефона не в шапке, а только на странице контактов.

Тем не менее, подобное ранжирование всеми ПС было принято за основу, существует уже несколько лет, и существует вполне успешно (в т.ч. и с точки зрения пользователя).

Дело, стало быть, не в невозможности формализовать непосредственные намерения и образ мыслей посетителя сайта, а в нахождении такой методики ранжирования, которая была бы этому пользователю максимально адекватна. И как раз поведенческие модели (выведенные и исследованные на больших числах и закономерностях) это задачу решают, как минимум, не менее успешно, чем модели традиционные.

1 абзац - согласен, сайт может быть безупречным технологически и таким же воспринимаемым ПС, но предлагать совершенно неприемлемую ценовую политику и сервис как таковой. При этом поведение юзера может быть таким же как и в обратном случае. Скачать прайс? Пожалуйста! Только его скачивают не только клиенты, но и маркетологи, журналисты и т.п.

2 абзац - вот именно, "несколько лет". Окиньте хоть простым взглядом, насколько изменился интернет и сайты за эти самые "несколько лет". Все эти методики давно устарели.

((GoodWin)) добавил 11.01.2011 в 12:02

ilux:
А вот для этого и существует матанализ и т.д...

В любом случае вы не будете спорить что с помощью 30 параметров можно сделать модель расчета адекватности сайта пусть и с большой погрешностью..

Потому что эти "параметры" могут иметь самое разное "смысловое значение" и зависеть от кучи коэффициентов, граничных условий и пр.

Вот у меня сегодня возник подобный вопрос.

У меня отключен поведенческий - ресурс достаточно тематический, со своей целевой аудиторией и предметом.

Может быть так: блоки не показываются, но при их "слепой" прокрутке они учитываются как непросмотренные и в связи с этим ощутимо влияют на данный процент?

Всего: 159