Dexter88

Dexter88
Рейтинг
131
Регистрация
06.10.2006
Miha Kuzmin (KMY):
А можно и 1-2 вести. Или 100-150.

Согласен если на семки с пивом надо, то и 1-2 достаточно будет☝

А если хочет стать серьезным пацанякой с машиной, телкой и виски хлягой, то надо 100

intraweb, по поводу сео дрим - это сильно, на начальном этапе в сео конторе, максимум 10 человек персонала:

директор, бухгалтер, копирайтер, дизайнер, программист, 2-3 сеошника.

А там уже с ростом доходов происходит расширение, набор кадров и т.д.

Мне кажется 1 человек может вести не более 10 проектов, при том условии, что проекты все разные, какой-то визитка по 5 запросам, какой-то визитка по 30 запросам, какой-то интернет-магазин по сотням запросов.

ИМХО 10-15 проектов можно вести в одного без ущерба к качеству.

i-tt:
Аккаунты вы предоставляете или надо регистрировать будет?

я предоставлю

Znamensk:
Я чёт никаких движений не вижу :(

Ну и радуйтесь!

Новая программа внедрена для пользователей из России, включая все города с локализованным ранжированием, но пока не касается Украины, Казахстана и Беларуси.

Айда все прикручивать Метрику к сайтам.

Продолжая хорошую традицию, мы внедрили в "Снежинске" дополнительные региональные факторы, основанные на интересе пользователей к документам. Они позволят повысить точность поиска в 19 городах с локальным ранжированием.
Андрей Привалов:
Не знаю... разницы почти не вижу ;-)


Смена алгоритма для меня прошла как обычный Ап!

Сколько проектов продвигаете, сколько запросов?

Не плохой такой ап по апометру 54%

Antonioooo:
Интересно же по каким это таким критериям он сейчас формирует выдачу..примеры с запросами
http://yandex.ru/yandsearch?text=%D0%BC%D0%B4%D0%B5&lr=213&stpar2=%2Fh1%2Ftm1%2Fs1&stpar4=%2Fs1&stpar1=%2Fu0

Ответ просто по критериям установленным яндексоидам, которые известны только им и всего-то.

Как я понял сейчас алгоритм основан на нейросетевой технологии:

-по сотням или тысячам критериев оцениваются сайты на соот. тем или иным запросам

-выявляются пары релевантные пары: страница-запрос

-которые попадают в обучающую выборку (назовем их эталоны или эксперты)

-на основе этих сайтов экспертов строится вся выдача (по сути это прогнозирование)

-таким образом им не надо писать ф-ию определения релевантности, после обучения нейронной сети они получают несколько готовых ф-ий ранжирования документов

-после чего выбирается из всего множества полученных функций одна с минимальными потерями

-для нее рассчитываются потери (насколько я понимаю - это вероятность или величина ошибки ранжирования)

-на след. итерациях уменьшаются потери и т.д.

Очень упрощенно и утрировано, но по-моему общая идея использования ими новой мат. модели такая, как описал.

Смысл в том, что получена более точная формула ранжирования по средством искусственного интеллекта, а как мы знаем машины ошибаются реже, чем человек, поэтому уменьшена вероятность попадания ГС в топ.

Как мы видим эта их мега функция пока работает не четко, ну думаю подкрутят и тогда все будет вполне нормально. Смысл не в том, что сейчас а в подходе, переход на машинный взгляд, а не человеческие мысли, домыслы и факты.

rio566:
Да это понятно. Вы с самого начала меня немножко не правильно поняли, ну да ладно я имел в виду, что все мои продвигаемые сайты не потеряли позиции, а не которые даже поднялись...;)

Фига се тебе повезло, ты наверно Вики, Ру&Ютуб продвигаешь😂

У меня буки работают!

По проектам, некоторые в плюс, что приятно, некоторые с топ5 на 5-10 стр. что не радует.

Всего: 1038