- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
midian777, отсылаю к вольфу, он пару книжек порекомендует.
Чисто технически современная наука позволяет эмулировать уже многие, достаточно сложные вещи. К сведению участников, современные адаптивные алгоритмы позволяют эмулировать мозг мухи. Да, конечно, сравнивать интеллектуальную мощь божества Яндекс и примитивную муху.. но второе все-таки сложнее. :)
По поводу индексации рунета - естественно, без этого никак. Но это относительно простая часть работы - речь идет только физической возможности переработки такого количества информации. Причем не обязательно пытаться проиндексировать сразу все - выбирается отдельная узкая тематика, устанавливаются "заглушки" на линки, идущие из других тематик..
Основная соль - в magic-алгоритмах. :)
2 midian777
Здравая мысль. Если проект можно будет сделать за недели (или дни), а не за месяцы, заказчику будет сложнее доказать оправданность размера бюджета..
А вот тут я не соглашусь. Цена вопроса. И времени.
Неправда Ваша... Если уж воспринимать ПС как черный ящик. Систему можно прощупать и понять алгоритмы ее работы, но для этого нужны 2 составляющие.. обязательные притом:
1. Входные и выходные точки.
2. Стремящееся к нулю время получения результатов.
Поясню. Допустим, прозваниваем некое электронное устройство. Подавая сигнал разного уровня, частоты, модуляции, можно изучать сигнал на выходе и рисовать графики и от них некие эквивалентные схемы. Но в случае с поисковой машиной мы не знаем ни количества входных точек, ни параметров, и самое главное - схема постоянно меняется :)
Второй аспект. Мы подали сигнал на вход - и ждем 2 недели ответа. При том, что не знаем, сколько десятков других сигналов подаются извне другими путями. А сколько миллионов комбинаций нужно перебрать, чтоб более-менее четко уловить конкретные алгоритмы? Вот если бы Яндекс каждую секунду переиндексировал весь Рунет, то... то тогда бабушка была бы дедушкой ☝
Зачем ждать 2 недели?
Входные характеристики - состояние группы сайтов на момент времени.
Выходные характеристики - позиции каждого сайта в выдаче по заданным словам. Понятно, что может потребоваться делать корректировку - т.е. берем из архива состояние сайтов на момент 2 недели назад, а выдачу смотрим текущую.
Во как. Сразу виден моск инженера интела. В чем и чем измеряется это состояние ?
Во как. Сразу виден моск инженера интела. В чем и чем измеряется это состояние ?
2 Miha Kuzmin: С Вами я буду общаться, когда Вы смените "Синдром прокурора" или "Синдром экзаменатора" на что-то менее снобистское.
(Протестировать себя можно здесь: http://karelin-r.ru/newstrs/53/1.html)
Для всех остальных могу подчеркнуть, что имеется в виду классика оптимизации: размещение и содержание контента, ссылки, возраст сайта и проч..
Мля, ну нафига говорить о вероятности создания такого эмулятора?
Соль в том, что он бесполезен.
Можно заставить мощности гугла вместе с его спецами скопировать серп Яндекса с максимальной точностью. Но нафига? Если такой мощный инструмент делать, то проще в него инвестировать пару-тройку десятков лимонов баксиков и жить хорошо...
где оптимизатор может за $4.99 протестировать свой новый сайт - узнать его положение в выдаче, если бы поисковик проиндексировал его уже сегодня, сейчас.
мозг - гораздо лучший анализатор. и бесплатный.
Входные характеристики - состояние группы сайтов на момент времени.
Допустим. Описать "состояние сайтов" как? по их месту в выдаче по некому запросу? По группе запросов, выдаваемой рандомом? Сопоставить это с плотностью ключевых слов и... упираемся в то, откуда пришли - мы не знаем, что именно включать и как в "состояние сайта", так как для этого нужно ИЗНАЧАЛЬНО знать, что Яндекс туда включает.
Иными словами, задачу со многими неизвестными можно решить, если знаешь хотя бы их количество.
Не трожь, он в интеле работал. С математикой правда плохо, точнее совсем никак :)