Str256

Рейтинг
611
Регистрация
07.01.2008
Интересы
компьютеры, интернет

Рачёт занимает куда меньше времени чем скан, а комп когда ссылок становится много миллионов начинает ощутимо тормозить. Ведь бывает, что на одной странице сотни или тысячи внутренних - меню каталога к примеру. Поэтому если, в базу будет сохраняться многокрано меньше ссылок это +.

Понятно дело что вручную, проходишь по сайту, ищешь маски с одинаковыми параметрами - потом задаёшь, маску и список исходящих к ней.

В принципе, основные внутренние ссылки - это сквозное внутренне меню или например каталог товаров. Если как-то в программе задать ссылки меню - как шаблон для каждой страницы сайта, или для маски урлов. То если программа не будет по ним идти, при посещении каждой страницы, то это сильно ускорит скан и снизит нагрузку. А вот при расчёте веса, уже эти ссылки подставятся для каждой страницы как фиксированные значения утечки/перетечки веса. Как моя идея?

TheAsking:
Это хороший вариант, только все оптимизаторы (по крайней мере с кем приходилось сталкиваться) не желают заключать договор меньше чем на год. А условия расторжения в лучшем случае за месяц предупреждать, то есть минимум три месяца получается. Чаще не ранее через полгода. И это логично обусловленно большими начальными вложениями средств и сил.
Разве не так?

При авансовой оплате за расходы и услуги. Нет, если это не обусловлено договором. Да и там надо просто предупредить, до даты очередной оплаты за купленные ссылки. А без договора, можно предупредить за неск дней до очередного платежа при оплате вперёд, если результат негативный - ну нету денег, раз трафика нету.

При оплате по факту, обычно есть авансовый платёж замороженный у оптимизатора на случай выхода ключей - вот его потеряете, если расторгните договор раньше срока.

Я не разработчик программы, просто пользователь как вы. Просто внимательно изучаю функционал перед тем как начать пользоваться. И на форум заглядываю, когда время есть, могу неделями не заходить сюда:) Прога проще некуда по сравнению с кей коллектор к примеру и предназначена для профессионалов. Для тех кому сложно её освоить, есть онлайн-версия.

Seoanalizer, вы бы хоть раз посмотрели функционал программы внимательно, прежде чем её критиковать. В программе есть экспорт в csv - там есть все страницы с внешними.

Алексей_Меньшиков:
Возиться с правами на сайт не вариант для нас. Может быть тогда оптимальной будет схема - оплачиваем работы над внутренней оптимизацией сайта: рерайт, копирайт и все прочее. А внешнюю оптимизацию СЕО берет на себя.

Если этот вариант не очень, то объясните как вообще можно контролировать ваш труд?? Как понять что затраты на сео окупятся? Как выбрать оптимизатора если он тупо потратит бюджет на себя, ему никакого дела нет до того будет у нас целевой трафик или нет? Покупать кота в мешке?

Оплата расходов должна быть 100%, расходы должны идти с ваших аккаунтов на биржах и кошельков. По итогам месяца отчёт. За рост позиций или трафика по ключевым словам, относительно базового периода - премия по итогам месяца. Нету существенного роста трафика в течение 1-3 мес, до свидания.

jorevo:
Ага... 30, 11 беспокойство напрасно. Для интереса гляньте сколько в дополнение к 30 лежит в виртуальной памяти и как кушается до 2 гигов физической памяти при старте программулины. И не забываем, что всё это хозяйство с полминуты грузится в память при старте компьютера, а потом ещё долго и натужно скрипит винтом, перекладывая в своп.

Что-то я такого не наблюдаю. Специально сейчас в службах остановил эти процессы. Разницы никакой по потреблению физич памяти. Только 30 мегов оперативки сэкономил. Да и комп. не заметил что на 30 сек дольше стал загружаться после того как я на 2.0 перешёл.

SQLSERVER - может он этот процесс имел ввиду. около 30 мегов памяти потребляет.

jorevo:
Давно хотел спросить, но всё как то недосуг было... а каких таким специальных экстрасупермега мощностей требует небольшая по сути утилитка, что в качестве базы к ней понадобилось громоздить мускульную базу от мелкософта? Оно как бы конечно круто и всё такое, но движка sqllite тут бы хватило за глаза... Тащить к крохотной утилите mssql - всё равно что в дачном сортире золотой унитаз ставить.

Лайт в 3.0 будет версии. Но и 2.0 никаких ресурсов не потребляет, нагрузка минимальна.

Seoanalizer:
В версии 1.8 Есть опция - перейти на страницу с битой ссылкой, на вкладке Битые ссылки ,
А вот во вкладке Внешние ссылки, такой опции - перейти на страницу с внешней исходящей ссылкой, - нет.
Появится ли она в будущем, или я что-то не так делаю и она там есть?

2-й клик по строчке с внешней ссылкой. и появится список страниц где она стоит.

Всего: 15927