у Вас тоже из Узбекистана удаленные работники? ;)
Я пробовать не буду, но предлагаю заняться математикой! ;) чтобы проверить 30К ссылок вручную, потратив на каждую одну секунду, то вся проверка займет чуть более, чем 8 часов беспрерывной работы, хочу посмотреть в глаза этому толковому вебмастеру!
gutako, 30 в день, это 900 в месяц, но количество ссылок, которое надо будет руками отмодерировать, по моему мнению, превысит столько, сколько сможет отмодерировать 2-3 человека за этот месяц, а этим людям надо ЗП платить ;), т.е. эти же 900 баксов и уходят на их ЗП+нервы и время, потраченные на управление этим стадом, то, что они будут шариться после постановки задачи на модерацию ссылок, я даю 100%!
Если сайт в индексе и ссылка с него стоит 3 цента в месяц, то не все ли равно? Типа в сетках каталогов все каталоги с пятеркой на морде ;) и ежедневно индексируются.
это должен контролировать оптимизатор, как правило, если текущий набор ссылок держит сайт по нужным запросам и оптимизатор не в накладе, то экономить 2-3 бакса в месяц из-за того, что меняются показатели, никто не будет, максимальная экономия будет до 20-25 вмз, а времени ты потратишь на другую сумму. Опять же помним, что ВИЦ Яндекс не показывает ;), поэтому разговаривать про ТИЦ можно долго, но результат нулевой, а именно, все вебмастера кладут с прибором на изменение денежки на их сайтах.
Если человек ставит на автомат покупку ссылок с ценой в 10 баксов, то это ЕГО проблемы.
а кто-то сомневался?
а зря! :) хороший поиск дает много интересных преимуществ, ну и денег в конце-то концов тоже дает :).
Свою ситуацию расскажу:
1. Сам поиск (ядро) мне написали за ~1К, но я изначально дал базовые библиотеки, в принципе ничего особо сложного там нет, на сравнительно небольшом количестве страниц в индексе с поиском справляется движок на РНР, который работает с БД на MySQL. Учет морфологии достигается за счет словарей и библиотеки по работе с ними, а также за счет реализации запросной части, которая расчитана на поиск, когда в словаре нет нужных слов.
Паук написать несложно (+300 у.е.).
Очень неплохо будет снабдить сайты своим счетчиком для корректировки результатов поиска запросами во внешних поисковиках по такому же принципу, по которому работает ЛИ.ру (+300 у.е. за счетчик, +200 за докручивание базового фукицонала поиска с учетом этого фактора).
Под существующий специализированный поиск у меня написан несложный препроцессор, т.е. аналог колдунщика. Когда он видит знакомые слова, он их выдирает из поискового запроса и превращает в условия внутри запроса к базе. (+150 у.е.) Говорю сразу, препроцессор -- ОЧЕНЬ нужная штука, проектировать препроцессор надо в самом начале и внедрять его в поиск тоже в самой первой версии движка. Про то, как работает препроцессор ЖЕЛАТЕЛЬНО рассказывать в ясной непринужденной форме своим пользователям ;) это очень поможет им находить то, что им на самом деле надо.
2. Т.е. в принципе достаточно дешевое решение вроде бы есть, но дальше возникают проблемы:
- отстрел дубликатов. На большой базе количество повторов информации будет заметным на результатах поиска, особенно, если где-то в индекс попадаются доски объявлений;
- фильтрация навигационного текста и шаблонного текста (меню, хидеры, футеры). С учетом того, что шаблонов на сайте может быть несколько, то получаем дополнительные проблемы;
- периодическое обновление индекса (полное или частичное), все это с учетом появления новых страниц, старения существующего материала и т.д. Фактор новизны контента должен влиять на выдачу;
- добавление сложных факторов релевантности усложнит поиск, причем процесс усложения, как я догадываюсь, будет нелинейным;
- поиск внешних точек входа на сайт (не у всех навигация устроена таким образом, чтобы с морды все страницы найти);
Другие возможные проблемы:
- зеркала (часть задачи решится при реализации отстрела дублей);
- реализация обработки robots.txt (это не проблема, но просто не самый нужный и не самый дешевый для самого поиска кусок кода, который все равно придется написать).
3. Дальше еще интересней получается... на больших объемах неплохо было бы иметь кеш частотных запросов, а значит нужно периодически делать апдейты этого кеша ;)
Я сейчас нахожусь на этапе №2, разрабатываю принципы отстрела дублей. Сколько денег потянет реализация я даже не догадываюсь, но, думаю, что весь второй этап потянет еще на 1-1.5К.
Напоследок оговорюсь:
ни сайты, ни библиотеки показывать (предоставлять/продавать) не буду, извините.
Bomass, проблемы у тех, кто думает, что у меня проблемы! ;) поэтому оставьте своего специалиста для себя.
ловля early adopters на наживку Платона... оригинальный ход! Сделайте кто-то трансляцию в ЖЖ :)
Да, согласен! Пора бы у какого-то идиота интервью взять... тем, кто берет интервью, нужно уже чем-то отличаться от серой массы им подобных 😂 😂 😂
это уже вопрос к тому, кто публиковал, если это смайлики, то они должны были нормально отображаться.
я образно выразился ;) просто некоторые представители "SEO-элиты" на вопрос: "а в чем секрет твоего успеха" закатывали глаза и говорили, что у них есть "кладезь ссылок, за которые не надо платить, но не рефспам" :)
ну-у-у-у совсем некошерно будет взять интервью у аутсайдера рынка SEO, неудачника года, лидера по количеству провалившихся проектов и т.д. 😂
я почти пришел к этой мысли, но полностью не осознал все до конца:
Смысл в том, что очень часто в админке практически дублируется функционал всего портала, только с функциями "выделить сообщения", "редактировать сообщения", "добавить/удалить/редактировать пользователя", поисковый движок в админке используется в качестве фильтров сообщений и т.д. Исходя из этого появился вывод сам собой: админка на портале в большинстве случаев не нужна, нужно правильно продумать и реализовать разграничение прав штатных пользователей портала.