на большие объемы - grep в консоли
на малые объемы и с морфологией - http://py7.ru/tools/group/
спрашивают, зачем это, отвечу тут сразу всем
как пример, почистить ядро от мусора:
сначала нормализуешь, потом на слова разделяешь, потом из слов все кроме минусов удаляешь в файлике, потом групируешь по списку из минусов, потом все что без минусов дальше делишь
какие объемы нужны?
насчет минимальной стоимости не обещаю, а в остальном подходим
где ТЗ глянуть можно?
какой бюджет на все?
в данный момент маркетологи нужны именно в офис, удаленных пока не рассматриваем
мой бредотекст по маркову на сервисе 100% показывает =)
тогда как время будет - постараюсь причесать, сделать моду/авторизацию/билинг/защиту и выложу
но пока ничего не обещаю
кидайте в личку свои мыла, кому отписаться случае готовности
и пометьте, если готовы побыть бета-тестерами =)
и пожелания по функционалу тоже кидайте
api для инфы по сайтам нужно?
например количество внешних все/открытые/ноиндекс/нофолов ссылок( для сайтов доноров ) или количество контента или количество ключевиков(по запросу) в тексте/тайтле/h1-6 с учетом морфологии и т.д.?
а сколько примерно запросов в сутки нужно?
1 000 000 в сутки хватит?---------- Добавлено 10.01.2013 в 16:04 ----------
только мой собственный =)
я им ссылочную массу мониторю и чищу и позиции снимаю =)
можно еще и к сапе мета-api сделать( надстроку над саповским api )
впринципе, если нужно, могу причесать, прикрутить билинг( исключительно что-б не злоупотредляли, а есть умельцы, все прокси убьют за раз ) и в паблик выложить