Говоря о "состоянии" контентного, ссылочного, поведенческого нужно обязательно уточнять в какой ПС и в каком формате сайтов.
Инфо сайты - это одна история, сайты с коммерческим предложением/товарами - совершенно другая.
Смешивать всё вместе будет нерепрезентативным и в конечных выводах неточным.
Вот это очень важное замечание - браться надо не за то, что в чьих-то представлениях модно/современно/востребованно, а там где есть способности и то, что приносит внутреннее удовлетворение.
В любых средних и мелких it компаниях менеджер пол дня "на обходах", пол дня разгребают менеджерскую текучку.
Это я могу заявить абсолютно уверенно, потому что в прошлом 7 лет с ними плотно работал.
В командах которые занимаются энтерпрайз разработкой - там могут быть менеджеры сугубо по сопровождению.
Если кроме сопровождения проекта занимается ещё и продажами (что весьма нередко), то - да, совмещает в себе две эти функции.
p.s. В web/seo студия чаще всего менеджеры занимаются продажами.
Именно о специализации, прочитай внимательно:
--
разработчиком сайтов или посредником между заказчиком сайтов и разработчиком сайтов?
А так конечно лучше быть богатым и здоровым, чем бедным и больным.
Во-первых, правильно - ты увлекаешься графоманством, во-вторых, уже ты демонстрируешь пустые претензии.
Написана как раз сама суть.
Разве что для экспериментов и тестовых оценок, в широкой практике я думаю он потерял свою актуальность (его вытеснили другие сервисы по текстовому анализу).
В принципе вообще сейчас тенденция заморачиваться глубоким текстовым анализом и расширением спектрам LSI слов ушла из тренда (скорее большинство довольствуется более доступными вариантами), сейчас тенденция бустить кликовые факторы, ибо они дают в Яндекс оживлённый рост, а проработка текстовой несет в себе вполне понятный исчерпаемый и негарантируемый эффект.
Только это не выбор специализации - это следствие приложения рекламных усилий.
Не предусмотрено, хотя практически конечно можно залезать во временные файлы и отсматривать, что там накапливается. Но что это вам даст? В моменте вы все равно не увидите результирующий объём ссылок на переобход, вы будете видеть на n% больше, чем уже обработанное.
Условно, вы обработали 200K ссылок, программа нашла 317K, а впереди ещё неизвестно сколько. Это может быть и 1M и 1.5M и 2M.
Что принципиально вам даст эта разница? Что вы вообще хотите от заявленного процесса?
Думаю, что вряд ли есть массовая тенденция парсить 1 мнл. сайты.
Дело это скорее неблагодарное, чем полезное.
Если уж и решать какие-то задачи по таким сайтом, то разделяя их на составляющие.
Конечно, потому что объём анализируемых ссылок накапливается и сравнивать текущие ссылки становится медленнее, чем следовать по новым.
Тут уже интересно спросить - и что вы хотите выяснить про результат этого парсинга?
Какие именно данные вам нужны в общем объёме? Что полезного это вам даст и какую руководствующую мысль вы вынесете из этой части работы для последующего внедрения?