Да, статистику для веб-мастеров тестируем, еще не все глюки отловили (связанные с тем, что до перехода на новый движок данные были в других таблицах БД) - рано слишком ее вывесили. Сводная статистика по сайтам на подходе. И новый сервер БД уже почти готов :) Скорость размещения постепенно разгоняется, наша цель - довести ее в ближайшие дни до 20000 новых ссылок в час. Естественно, до этого биржу запускать нельзя, т.к. рекламодателям надо увидеть, что их ссылки быстро размещаются (и ксапы быстро тратятся).
Приятная новость - готов c++ скрипт для одновременной проверки PR со 150 датацентров.
обмен статьями тут непричем...
Lor обиделся :) Цель была не такова, а всего лишь обратить Ваше внимание на новые технологии, которые Вы упустили из виду. Я имею в виду что-то вроде Адсенса с прямыми ссылками, "платность" которых поисковым системам отследить не под силу.
Что-то мне подсказывает, что Вы просто не знаете о них и поэтому не пользовались.
Одно другому не мешает (а даже, наоборот).
Руки прочь от линкаторов! 🤣
С умным бескаталожным линкатором типа ресивликнкс Гугл не может ничего поделать сейчас, не сможет и потом - только если ручками наказывать.
О! У нашей темы появились в разделе "Яндекс" соседи 😂 наверное надолго...
Насколько я вижу по отзывам, несколько упрощенная копия Сапе с некоторыми косметическими изменениями (а сколько их еще будет - копий). Что ж, удачи (она вам понадобится).
P.S. У нас свой путь.
Сделаем это чуть позже - с новым движком это реально.
Скорость размещения новых ссылок это на данный момент основная проблема, над которой работают программисты. Задача нетривиальная, учитывая объемы ссылок и страниц в базе (и многие страницы свободны...). Будем решать ее не только программными средствами (в ближайшие дни база переезжает на новый сервер - более быстрого я не нашел). Сейчас до сих пор не доходит очередь до старых кампаний при размещении (вывод - пока создавать новые кампании).
Также опишу, что делали и сделали с момента моего прошлого поста:
отладили массовое удаление заказов, кампаний (с возвратом ксапов) - теперь удаление кампании с размещенными 40 тысячами ссылок не вызывает затруднений
отладили удаление сайтов (с возвратом ксапов) - пока нет в интерфейсе пользователя (не уверен, что надо - у Бегуна, например, до сих пор нет).
отладили проверку ТИЦ, которая в последнее время глючила
вносятся косметические усовершенствования по интерфейсу, открываем статистику по показателям страниц и ксапам за каждую ссылку (не в подсказке), подробную статистику для веб-мастера по заработку с каждого сайта
массовое удаление нужно было прежде всего для запуска паука (который давно готов). Он будет запущен как только разберемся со скоростью размещения новых ссылок, он удалит все отсутствующие ссылки (а также, если есть - те, которые находятся на 404 страницах, в ноиндексах, комментариях, вне тэга body) и начислит за продление существующих ссылок.
Но повторяю, основная проблема сейчас - это кардинальное увеличение производительности системы по размещению новых ссылок, и надеюсь, на днях она будет решена (другого варианта я не допускаю).
Вообщем остановился на таком варианте:
Dual Processor Quad Core Xeon 5345 - 2.33GHz (Clovertown) - 2 x 8MB cache
Ram 8 GB FB-DIMM Registered 533/667
Disk System 2 x 73GB 15k RPM SA-SCSI RAID 1
🚬
Спасибо, похоже самый лучший вариант.
Гугл ничего с этим не сможет сделать при правильном подходе. Главное - строгая ручная модерация ссылок до размещения.