- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вы тоже хотите сделать подобную систему?
Нет, у меня нет денег на датацентр. Вы для начала посчитайте, что нужно сделать, а потом проводите опрос, так как сервис показывающий точно даже 50% ссылок (что достаточно неплохо) на самом деле не имеет никакого смысла.
Нет, у меня нет денег на датацентр. Вы для начала посчитайте, что нужно сделать, а потом проводите опрос, так как сервис показывающий точно даже 50% ссылок (что достаточно неплохо) на самом деле не имеет никакого смысла.
Абсолютно согласен.
Общее число доменов, зарегистрированных в зоне RU
(Ru.Center/Nic.Ru, Reg.Ru, R01, Naunet, Regtime)
2 234 050
Умножим на среднее количество страничек на сайте, скажем на 100
Как часто будем индексировать базу?
и будет давать возможность видеть:
- общее количество ссылок на сайт;
- общее количество внешних ссылок с сайта и страницы с которых они
ведут;
- количество ссылок с определенным анкором;
- сами анкоры с сортировками и выборками;
- уровни ссылок (главная, 2, 3);
- параметры ссылающихся сайтов (тиц, пиар);
- общее количество страниц на ссылающихся сайтах;
- информацию о ссылке (стоит ли в блоке, похожем на сапин или другой);
- любую другую информацию, список не полный (что еще стоит добавить?).
Правильно ли я понял из приведенного перечня, что по входящим ссылкам будет даваться их количество и статистическая информация, а вот страницы, с которых ссылки ведут, - лишь по исходящим ссылкам с анализируемого сайта?
Нет, у меня нет денег на датацентр.
А вы у Каширина деньги возьмите, он вроде раздавал всем страждущим. А то пропадет талант-то зря)
А то пропадет талант-то зря)
Он пропадет зря, если заниматься всякой ерундой даже не разобравшись с вопросом, объемом работ и ресурсов.
2 234 050
Умножим на среднее количество страничек на сайте, скажем на 100
Это слишком простая арифметика. И абсолютно не точная - отнимите 10% неделегированных доменов и добавьте поддомены бесплатных хостингов.
Да что там говорить, сам яндекс не совсем точно знает (или не показывает) сколько документов у него есть.
Пример rhost="ru.*" - 219 млн страниц, вполне подъемно, а нет, смотрим домены на букву А rhost="ru.a*" - 180 млн страниц, вот те раз, rhost="ru.s*" - 233 млн страниц, вот те два. Это не учитывая уже забаненные или еще не проиндексированные.
Для начала, так сказать для пробы пера, estafa, сделайте сервис по исходящим ссылкам с searchengines, с ежедневным обновлением. Это такусенький, малипусенький кусочек сможет продемонстрировать ваши способности, заодно вы сразу почувствуете часть сложностей парсинга всего Рунета.
estafa, спрос есть, реализации есть. Вопрос только в одном - достаточные вычислительные мощности для поддержки актуальности. Если вы решите этот вопрос, то многие и 100,200,300,400 будут платить с удовольствием за анлимы.
зы. да не надо под это дело целых ДЦ (там задача реально проще) - главное прямые руки и правильный алгоритм, ну и десяток сервачков.
Правильно ли я понял из приведенного перечня, что по входящим ссылкам будет даваться их количество и статистическая информация, а вот страницы, с которых ссылки ведут, - лишь по исходящим ссылкам с анализируемого сайта?
Исходящие ссылки со страниц так же можно будет смотреть.
estafa добавил 12.11.2009 в 15:39
Это слишком простая арифметика. И абсолютно не точная - отнимите 10% неделегированных доменов и добавьте поддомены бесплатных хостингов.
Да что там говорить, сам яндекс не совсем точно знает (или не показывает) сколько документов у него есть.
Пример rhost="ru.*" - 219 млн страниц, вполне подъемно, а нет, смотрим домены на букву А rhost="ru.a*" - 180 млн страниц, вот те раз, rhost="ru.s*" - 233 млн страниц, вот те два. Это не учитывая уже забаненные или еще не проиндексированные.
Для начала, так сказать для пробы пера, estafa, сделайте сервис по исходящим ссылкам с searchengines, с ежедневным обновлением. Это такусенький, малипусенький кусочек сможет продемонстрировать ваши способности, заодно вы сразу почувствуете часть сложностей парсинга всего Рунета.
Ёхан Палыч, спасибо за заботу о том как бы я не надорвался. У нас есть похожий проект, правда там все несколько проще и написан он всего для одного заказчика. Позволю себе повториться, я знаю объем задачи и требуемые вычислительные и канальные ресурсы для ее реализации. Сейчас мне важно понять интересно это коллегам или нет.
estafa добавил 12.11.2009 в 15:42
estafa, спрос есть, реализации есть. Вопрос только в одном - достаточные вычислительные мощности для поддержки актуальности. Если вы решите этот вопрос, то многие и 100,200,300,400 будут платить с удовольствием за анлимы.
зы. да не надо под это дело целых ДЦ (там задача реально проще) - главное прямые руки и правильный алгоритм, ну и десяток сервачков.
Спасибо, про анлимы ценная информация!
У нас есть похожий проект, правда там все несколько проще и написан он всего для одного заказчика. Позволю себе повториться, я знаю объем задачи и требуемые вычислительные и канальные ресурсы для ее реализации. Сейчас мне интересно понять интересно это коллегам или нет.
Если есть инвесторы, плчему бы не сделать. Платить будут, но что бы проект вывести на окупаемость, скажем, даже через 5 лет существования нужно будет задрать цены выше планки, которую потянут оптимизаторы, которым бы пригодился этот сервис. ИМХО.
Или 5вмз в месяц уже точная цифра, которая вылезла из предполагаемой клиентской базы и предполагаемых затратах на проект?
P.S. Я бы пользовался, но до поры...
Ёхан Палыч, спасибо за заботу о том как бы я не надорвался.
На здоровье. Только терзают меня смутные сомнения, что вам это под силу. Озвучьте приблизительные "требуемые вычислительные и канальные ресурсы", интересно узнать.
А опрос, да, покажет наличие интереса и спроса, и что? Закончится как с Яплатоном?