а вот мне опыт подсказывает, что работа веб-студии - это постоянный цейнтнот, ахутнг и иже с ними...
поэтому какие-либо программы планирования рабочего времени и прочие продежкт-менеджер-продукты отметаем сразу же...
а все остальное - только в ЭКСЕЛЬ
может быть повторюсь...
но...
в роботсе вы запрещаете к индексации страницы, а ноиндексе же - только часть контента
соответственно, если в ноиндекс внесли часть контента, а остальная страница должна индексироваться, то дополнительно ничего писать не надо...
если же наоборот, вы хотите запретить страницу - пропишите ее в роботсе, а ноиндекс оставьте в покое...
;-)
а я бы посоветовал просто Эксель...
и выдумывать ничего не надо - все на формулах повязать... ведь дизайнерско-веб-сео бизнес не шибко насыщенный как количествами платежей, так и их разносторонностью...
по сравнению с более широкими в плане бухглатерии бизнесами
если в роботске для запрещения индексирования страниц Вам надо писать следующее:
User-agent: * Disallow: /papka1/ Disallow: /papka2/
то в самом коде, для запрещения индексирования какой-то части кода Вы уже будете использовать
<noindex> текст, который не хотите показывать роботам </noindex>
однако помните, что тег "ноиндекс" - читается русскими роботами, и игнорируется Гуглом... для Гугла же эфект неиндексируемости ссылки, к примеру, достигается через опцию rel="nofollow", например:
< a href="http://site.ru/ "rel="nofollow">ссылка на сайт</a>
хм... ну если будет учет быстроробота по ссылочному, то как ему запретить учитывать остальные новые??? ;-)
в этом то и загвоздка...
поисковику важно, чтобы информация в поиске была актуальной (кхм... ау, апдейт)... а в теории учитывать только "старые ссылки" не правильно, поскольку информация, по ним находимая, к тому времени может значительно устареть, потерять актуальность или просто исчезнуть...
по поводу меньше запросов меньше 100... тяжеловато определить непот на "прокаченном сайте", поскольку на "монстров" предпочитают ставить ссылки с точным
вхождением, не разбавляя их примесью....
"пластиковые окна", "кондиционеры" и проч...
а т.к. эти ссылки дороги, то они более важны для анализа...
в данном случае мне трудно протестить тот же регнум, к примеру...
**********************
в файрфоксе ни красненького ни синенького - все черное, в отличие от ИЕ (в таблице результатов)
какую-нить кнопочку на "начало" или "обновить" надо...
сейчас забил три урла - так там все перепуталось в таблицах...
А Вы пробовали по нескольку урлов тестить? У меня глюки...
на всякий случай можно еще ТИЦ с рубрикой и ПР выдавать, а также наличие в ДМОЗе...
пустячок - но картина полная будет....
кстати, мысль интересная...
начать учитывать ссылки через три месяца после появления Яндекс может... тогда будет происходить следующее - оптимизатор покупает ссылку, а толку от нее нет (по крайней мере он видит что она не учитывается в ссылочном или участвует в непоте...)... 3 месяца выкидывать деньги на ветер вряд ли он будет...
в то же время как естественная бесплатная ссылка будет стоять "вечно"...
однако... как быть тогда с "моментальными" событиями... новостными... никому не интересно находить сегодняшнюю информацию через три месяца (в то время как по ежедневному ссылочному, кстати, естественному, сайт будет в топе...)
все зависит от задач... сложно сказать... да и юзал фактически вот эти, указанные...
меня бесплатный CuteNews вполне устраивает...
попробуйте также CuteNews или DLE - очень удобные новостные / статейные движки...
угу... попробуйте и прочитайте подпись лица, ответившего...
имя, так сказать, нарицательно ;-)