Только не будем забывать, что разговор идет о 2003 сервере, в котором даже IE стоит в "защищенном режиме". ;)
И фигни всякой там "ну очень необходимой" не стоит.
А критических уязвимостей именно в ядре (причем, еще не факт, что к ним по сети нормально настроенной добратся получится) уже давненько не находили. В IIS что-то было не очень давно, кажется...
Вобщем, Win2003 + IIS (+MSSQL) нормально настроенные, с правильной безопасностью и без всяких левых программ живут спокойно уже ... 3 года у нас. Аптайм где-то 3 месяца (да, иногда после апдейтов приходится перезагружатся :) ). Это я как MCSA заявляю ;)
1. 😂 Точно-точно. И яшка 100% ведет список cms с коэф. 😂 А если правильно самописную написать, то яшку заглючит и он ей коэф 100 сделает...
2. Угу, 100%. 😂 Особенно с учетом того, что у огромного количества сайта нет одной четкой тематики...
3. А тематичность ссылок этих в пределах страницы или сайта всего? ;)
Только сапа?!
Хм. Разводить вас на "не верю, сбрось урл в личку" наверное бесполезно, да? ;)
Расскажите хоть краткую стратегию - стотыщмиллионов ссылок по 0.03 или 1000 по 2 у.е.?
Из того, что успел понять я по наблюдению за примерно 200 разными сайтами:
- большая часть апнулась в минус
- ссылки или долго в индекс попадают, или просто начинают для ТИЦ учитыватся с некоторой задержкой. Так, сайты которые в прошлый ап получили +50 и ничего не делали получили еще +20-30, а беки (по крайней мере все те, что видны) практически не менялись.
- свои 10-20 тиц можно получить многими способами
- логики у Яшки не обнаружил. ГС как сидели с 30-40 тиц, так и сидят. Не ГС получили как минимум -10 независимо от того, велась ли работа с ними или нет...
2008, 2005, 6 (VB). Ну, и не Express Edition, ясное дело :)
Еще 2010 ставил - красиво :), но только смотел пока.
А чего ж не работать? Я на батарее когда ставлю в Notebook Harware Control режим "Max Battery" - и вперед. Ну, может конечно первый раз на 1-2 сек дольше стартует, но это не критично для меня.
Категорически согласен. Вот только...
Какой процент сайтов (не своих, клиентских) попадает к вам на продвижение на стадии "самого начала"? ;)
Мне например удобно было - сеопульт показал что все ок на 99% страниц, но нашлись несколько, где ключевика в titile небыло (забыл, забил - не важно). Вот система и напомнила, что не помешает, мол...
Первый - старт.
По своему "скромному" опыту работы с их продуктами, а особенно с VS всех версий - монитор побольше, памяти побольше, остальное неважно (ну, пару гигов на диске свободными никому не помешает, ясное дело).
Насчет 0.9 Ггц... У меня на ноуте почти все время он на 0.8 сидит (Intel рулит) - и ничего :)
Но на Нетбуке студию юзать... изврат, имхо :)
Не хочу вас расстраивать, но есть еще такие сайты, на которых страницы не создаются по принципу "обязательно такой % таких ключевиков, а все остальное - вода". А просто пишутся интересные (для людей, спешу вас расстроить, не для роботов) тексты. И потом уже с таким сайтом идет работа.
Чуть не забыл. Чаще всего такие сайты с интересным текстом по теме, а не "зашифрованым" набором ключевиков называют ... СДЛ.
Да поймите наконец, что нету для ПС и посетителей никаких "динамических" и "статических" страниц. Есть просто html, который отдается на запрос. Все. А чем вы там его из чего получаете - должно волновать только вас.