- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Что мешает мониторить IP Яндекса на основе примерно 100 тестовых доменов с приблизительно одинаковым ссылочным ранжированием на них и разными внутренними структурами.
И отслеживать что кушается на настоящий момент лучше.
Это вам не нейронные технологии.
Любая хорошая статистика даст ответ.
А вы тут развели димагогию.
Да и по опыту все уже приблезительно скока ссылок надо на каждый запрос.
Топикстартер идиалист.
При бюджете на разработку системы надо не очень много денег а просто немеренно.
На эти деньги поднять раскрутить 1000 гиперпорталов.
И будет ВАм счастье.
100chuk просто пытается промоделировать теоретически - что тут плохого ? Зачем сразу делать поспешные выводы ... пусть человек разовьет свою мысль и вполне возможно, что выводы будут пусть и не осуществимы, но вполне полезны для тренировки мозгов.
сложно или нереализуемо? на мой взгляд сложно, но выполнимо...
целесообразно? не факт...
если топикстартер действительно сможет создать такой проект за пару десятков $, то конечно целесообразно... а дальше уже смотреть надо
но с другой строно эмулятор всего инета может и не нужен
очень часто для понятия некоторых алгоритмов Я используются вновь созданные сайты без внешних факторов
то есть создается как бы свой сегмент инета с изоляцией его от остального сегмента, что бы не влияли внешние факторы, и тогда действия яндекса на этом сегменте можно вполне реально изучать
то есть создается сотня сайтов с контентом состоящих из слов, которые в жизни не встречаются вообще (абраказябра), и не на один на этих сайтов ссылки из вне не ставятся, и уже внутри этого сегмента можно ставить ссылки друг на друга, менять текста по релевантности, делать спам сайты и так далее и вполне реально изучать как я реагирует, так как все входные действия знаешь точно и все выходные знаешь точно, то может быть как то грубо оценить черный ящик можно
естественно все имхо....
собстно, черные ящики только так и изучаются. скармливается ему контроллируемые исходные данные и смотрится результат.
вопрос в другом. неужели вы думаете яндекс позволит бодобный эксперимент?
алгоритмически не очень сложно выявить сегменты, на которые внешних ссылок нет или очень мало и тренькнуть модеру. он их посмотрит, убедится что это "исследователи" и все. эксперимент можно считать законченым. на указанные исходные данные Яндекс реагирует баном :)
хуже, если на экспериментальные сайты наложат какие нить фильтры или еще как подкрутят алгоритм.
т.е. задача анализа в принципе не решаема при наличии осмысленного противодействия исследуемого объекта.
ИМХО
Тема безусловно интересная, но на мой взгляд немного не там акцент поставлен: интересно не прогнозирование будущих позиций сайтов а выявление взаимосвязей влияющих факторов и их веса при ранжировании. И выборку для этого не обязательно делать "весь рунет"...
Тема интересная - кто вник - респект