- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Что делать, если ваша email-рассылка попала в спам
10 распространенных причин и решений
Екатерина Ткаченко
простите, а про возраст сайта, что думает?. вот у меня есть сайт ему 15 мес от роду он старый?
Кто "что думает"? :)
Я ничего не думаю, не заметил жесткой пессимизации пока. Из собственных проектов некоторые молодые вылетели на 2-ю страницу, но по "бюджетной классификации" им там и место. :)
Кстати, про возраст. Вопрос про "старые ссылки" из той же серии, что и вопрос про "жирные" несколькими постами выше. Поделить их на кучки "молодые"/"не очень"/"старые"/древние"? ;)
Дык, киньте кто-нить идею, как эти тысячи разных "жирностей" уместились в сотни признаков? На кучки анкор-файл разбили чтоле? Не, ну я еще понимаю, если бы разбили всего на две кучки по мадридскому алгоритму, но что делать с разной "жирностью"? :)
Каждому да воздастся... Каждой ссылке сотни признаков.
Ну как понять такое, например, по запросу "бухгалтерский аутсорсинг" в Москве мой сайт обогнала страничка www-audit.ru. Это сео-статья, да еще отдельно блок продажных ссылок. Если загнать ее в вебмастер, то получается вообще песня (см. картинку).
Что это такое?!!!
Вопрос о "жирных" ссылках. К паре (запрос,документ) по словам Сегаловича прилагается всего несколько сотен признаков. А в анкор-листе документа у некоторых (не будем показывать пальцем) наберется несколько тысяч анкоров, влияющих именно на этот запрос. Естественно, что все они с разной "жирностью". Дык, киньте кто-нить идею, как эти тысячи разных "жирностей" уместились в сотни признаков? На кучки анкор-файл разбили чтоле? Не, ну я еще понимаю, если бы разбили всего на две кучки по мадридскому алгоритму, но что делать с разной "жирностью"?
Ну, может быть признак, что-то типа взвешенный tf по анкор-файлу.
Кстати, то, что один фактор (тот, которые "feature" по Сегаловичу) может в куче параметров модели сидеть - хреновый момент. В итоге зависимость результата от него может получиться ни фига не монотонная. К примеру, возьмем tf. Может, получиться, что увеличивая его значения, мы на определенных интервалах можем ухудшать результат (привет портянкам)! Причем, интервалы эти кусочно-постоянные в общем случае будут зависеть от других факторов (если в параметрах сидят произведения разных факторов). То есть tf, допустим в 10, для одного документа будет хорошим результатом, а для другого - плохим. Вот где основная засада-то...
Поделить их на кучки "молодые"/"не очень"/"старые"/древние"
Предлагаю еще ввести категорию "мохнатые, эпохи перфокарт", и у кого они будут, сразу выставлять в топ-1, невзирая на бюджеты и оптимизаторов ;)
Ну, может быть признак, что-то типа взвешенный tf по анкор-файлу.
Вопрос - как взвешенный? Если тупо-среднее, то все разруливает 1 анкор с большим российским пэйджранком (не путать с PR гугла) и бомбинг по ГС. Чтобы такие методы пресечь нужно взвешивать примерно так, как в свое время devzev предлагал со своим "трастовым окном" - строить распределение "жирности" и отсекать длинные хвосты с обеих сторон. Но это как-то маловероятно. :)
Кстати, то, что один фактор (тот, которые "feature" по Сегаловичу) может в куче параметров модели сидеть - хреновый момент. В итоге зависимость результата от него может получиться ни фига не монотонная. К примеру, возьмем tf. Может, получиться, что увеличивая его значения, мы на определенных интервалах можем ухудшать результат (привет портянкам)! Причем, интервалы эти кусочно-постоянные в общем случае будут зависеть от других факторов (если в параметрах сидят произведения разных факторов). То есть tf, допустим в 10, для одного документа будет хорошим результатом, а для другого - плохим. Вот где основная засада-то...
Ну да. Остается уповать только на то, что на каждый хитрый MatrixNet найдутся свои метрики с винтом. :)
Вопрос - как взвешенный? Если тупо-среднее, то все разруливает 1 анкор с большим российским пэйджранком (не путать с PR гугла) и бомбинг по ГС.
Просто. Никаких пейджранков. Взять, к примеру несколько дискретных градаций "хорошести" ссылки.
Просто. Никаких пейджранков. Взять, к примеру несколько дискретных градаций "хорошести" ссылки.
ключевое слово - несколько...
Вообще в целом новый алгоритм радует и не надо показывать косяки типа "бухгалтерского аутсорсинга".. - алгоритм только включили, чего вы хотите..
То есть tf, допустим в 10, для одного документа будет хорошим результатом, а для другого - плохим. Вот где основная засада-то...
Сергей, но все это можно перебороть практикой, а конкретно - перебором текстов в каждом конкретном случае... Заранее что-то предсказать невозможно, это да.
Кстате господа :) Вот комментарий по тому запросу "А5", которые повесилил всех, от Дэна Расковалова:
Господа, спасибо вам за вашу бурную реакцию и живой интерес
Да, эта страница нерелевантна запросу [a5]. Причины ясны. Википедия имеет на страницах "скрытый текст". Посмотрите на HTML:
<div class="printfooter">
Источник — «http://ru.wikipedia.org/wiki/%D0%A5%D1%83%D0%B9»</div>
В линках тоже %A5 встречается. Конечно, это проблема нашего токенизатора, который мог бы и должен с %-последовательностями работать так же, как и с HTML entities.
Это обидная ошибка/недочет. Будет исправлена в рабочем порядке.
Еще раз спасибо за интерес и поддержку
Что? Теперь согласно лицензии Яндекса Википедию забанят за скрытый текст? 😮