- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
А сервера откуда? Или они бесплатные?
Простите, но это же Ваши слова:
А в сервера... Денег можно угрохать ровно столько, сколько есть.;)
Простите, но это же Ваши слова:
А в сервера... Денег можно угрохать ровно столько, сколько есть.;)
Для меня хостинг - это сервера + colocation. Просто из-за того, что на певое время легче сервера арендовать. И вот тогда человек получит $300-400 в месяц арендной платы за средненькие сервера типа P-IV. Или может купить три сервера за $10К минимум. Как говорится: вы ещё пишете поисковики на PHP? Тогда мы идём к Вам :D
Я только не понимаю, почему ему не взять стандартные мощные опенсоурс поисковики на 2М документов.
Ковырял я их, есть даже на php написанный Sphider (со своим краулером), я его с Денвера запустил и тот представьте себе с первого запуска стал индексировать и переиндексировать сайты, выдача конечно оставляет желать лучшего, морфорогией и не пахнет....но он все же работает, хорошая штука :)
Есть мощный Nutch, но он реализован на Java, с этим языком я не планирую работать, а использовать то, что я не могу поковырять и даже не представляю как работает я не буду, поэтому я или модернизирую (пусть даже для опыта) тот php поисковик который нашел, и в дальнейшем буду писать на С, С++ (начал изучать) логику а на php интерфейсы для своего поисковика :)
Всем большое спасибо за советы, надеюсь обсуждения данного вопроса продолжаться так как он на мой взгляд очень интересен :)
А чем не подошли:
1. МногоСерчь
2. Яндекс.Сервер
надеюсь обсуждения данного вопроса продолжаться так как он на мой взгляд очень интересен :)
Для обсуждения - нужны какие-то предложения по реализации.
Какие-то новые идеи и подходы, алгоритмы и принципы.
А так... Все это уже 100 раз было.;)
А чем не подошли:
1. МногоСерчь
2. Яндекс.Сервер
1. Чесно говоря не ковырял еще.
2. Если не ошибаюсь он для локального использования.
Меня интересует именно внешний так сказать поиск :)
Насчет идей и концепций они будут просто вот так палить не хочется сразу, потому я и склоняюсь больше к разработке своего поисковика :)
Кстати если за php паука поговорить, то в non blocked тыщ 6 сокетов нормально тянет... правда select там иногда глючит, но это отслеживается. Если по 300 сокетов расфоркать на 20 процессов, то по мегабитам прилично там ссасывает... до 400 мегабит наман сливает... смысла лить быстрее нет, т.к. надо еще и записывать это куда-то.
Интересно, а в чем глубинный смысл писать поисковик на "php" ?
в надежде шо скоро появится вменяемый пехапе компилятор.
Перед тем как обсуждать надо отговорить человека от совершения ошибки, а уж потом когда он встанет "на путь истинный" продолжать обсуждение по теме...
а я вот не считаю его желание ошибкой, т.к. по условиям задачи объем индексируемых страниц, скорость идексации и т.д. совсем не оговаривается... другое дело скорость разработки... вот тут она выше и дешевле.
а я вот не считаю его желание ошибкой, т.к. по условиям задачи объем индексируемых страниц, скорость идексации и т.д. совсем не оговаривается... другое дело скорость разработки... вот тут она выше и дешевле.
Если немного конкретизировать задачу начального варианта, то надо индексировать-переиндексировать 200000-300000 документов, не более :)