sokol_jack

Рейтинг
78
Регистрация
16.03.2008
Andreyka:
Можно конечно. Только проблема остается в 0-day уязвимостях.

Только не будем забывать, что разговор идет о 2003 сервере, в котором даже IE стоит в "защищенном режиме". ;)

И фигни всякой там "ну очень необходимой" не стоит.

А критических уязвимостей именно в ядре (причем, еще не факт, что к ним по сети нормально настроенной добратся получится) уже давненько не находили. В IIS что-то было не очень давно, кажется...

Вобщем, Win2003 + IIS (+MSSQL) нормально настроенные, с правильной безопасностью и без всяких левых программ живут спокойно уже ... 3 года у нас. Аптайм где-то 3 месяца (да, иногда после апдейтов приходится перезагружатся :) ). Это я как MCSA заявляю ;)

_mihey:
юни, имхо, неправильную мысль вы думаете.
сейчас он передается даже не в зависимости от числа исходящих, а в зависимости от:
1. коэффициента cms или тицевеса того или иного сайта или страницы (почему то для ряда cms он =1, а для каких-то стремится к 0)
2. тематики сайта донора
3. тематичности ссылок на сайт донор и его тиц

1. 😂 Точно-точно. И яшка 100% ведет список cms с коэф. 😂 А если правильно самописную написать, то яшку заглючит и он ей коэф 100 сделает...

2. Угу, 100%. 😂 Особенно с учетом того, что у огромного количества сайта нет одной четкой тематики...

3. А тематичность ссылок этих в пределах страницы или сайта всего? ;)

RnB:
Новый сайт 0 -> 950 (сапа)
Старый 950 -> 2100 (сапа)

Только сапа?!

Хм. Разводить вас на "не верю, сбрось урл в личку" наверное бесполезно, да? ;)

Расскажите хоть краткую стратегию - стотыщмиллионов ссылок по 0.03 или 1000 по 2 у.е.?

Из того, что успел понять я по наблюдению за примерно 200 разными сайтами:

- большая часть апнулась в минус

- ссылки или долго в индекс попадают, или просто начинают для ТИЦ учитыватся с некоторой задержкой. Так, сайты которые в прошлый ап получили +50 и ничего не делали получили еще +20-30, а беки (по крайней мере все те, что видны) практически не менялись.

- свои 10-20 тиц можно получить многими способами

- логики у Яшки не обнаружил. ГС как сидели с 30-40 тиц, так и сидят. Не ГС получили как минимум -10 независимо от того, велась ли работа с ними или нет...

Luxer:
sokol_jack, а какая студия у Вас на 0.8 работает? 2008?

2008, 2005, 6 (VB). Ну, и не Express Edition, ясное дело :)

Еще 2010 ставил - красиво :), но только смотел пока.

А чего ж не работать? Я на батарее когда ставлю в Notebook Harware Control режим "Max Battery" - и вперед. Ну, может конечно первый раз на 1-2 сек дольше стартует, но это не критично для меня.

Megamozg:
sokol_jack, ваша правда почти на 100% Вы видимо не правильно поняли мою мысль. Под оптимизированной страницей я имею ввиду именно страницу с уникальным интересным текстом, оптимизированным под запрос. Если заложить такую страницу в структуру сайта заренее, то как раз таки искусственно напихивать ключевики не придется. Только работу надо вести не потом, а с самого начала.

Категорически согласен. Вот только...

Какой процент сайтов (не своих, клиентских) попадает к вам на продвижение на стадии "самого начала"? ;)

Мне например удобно было - сеопульт показал что все ок на 99% страниц, но нашлись несколько, где ключевика в titile небыло (забыл, забил - не важно). Вот система и напомнила, что не помешает, мол...

Первый - старт.

AndyM:
Купите ноут с 14" экраном. А вообще у микрософта на их минимальных требованиях софт можно только запустить, а вот работать не возможно хочется сначала что нибудь сломать а потом кого нибудь убить:).
Это так по опыту работы с их продуктами.

По своему "скромному" опыту работы с их продуктами, а особенно с VS всех версий - монитор побольше, памяти побольше, остальное неважно (ну, пару гигов на диске свободными никому не помешает, ясное дело).

Насчет 0.9 Ггц... У меня на ноуте почти все время он на 0.8 сидит (Intel рулит) - и ничего :)

Но на Нетбуке студию юзать... изврат, имхо :)

Megamozg:
Может быть я старомоден, но релевантные страницы надо не выбирать, их надо создавать! Создавать под конкретные запросы и в конкретных местах сайта. И все эти действия надо планировать еще на этапе разработки семантического ядра. Система SeoPult пошла по другому пути - возьмём то, что есть и сделаем что-нибудь получше. Возможно в единичном случае это рациональнее, чем разрабатывать семантическое ядро, планировать структуру сайта и разбивать весь список ключей по разделам и страницам заренее.

Не хочу вас расстраивать, но есть еще такие сайты, на которых страницы не создаются по принципу "обязательно такой % таких ключевиков, а все остальное - вода". А просто пишутся интересные (для людей, спешу вас расстроить, не для роботов) тексты. И потом уже с таким сайтом идет работа.

Чуть не забыл. Чаще всего такие сайты с интересным текстом по теме, а не "зашифрованым" набором ключевиков называют ... СДЛ.

Kel_Kimpbell:
Единственное - страницы динамические.
...
Если страницы сделать статическими...

Да поймите наконец, что нету для ПС и посетителей никаких "динамических" и "статических" страниц. Есть просто html, который отдается на запрос. Все. А чем вы там его из чего получаете - должно волновать только вас.

Всего: 1527