Если вы сможете переложить зону ответственности на готовую команду, то конечно, вам не придётся заниматься вопросами согласования технических нюансов.
В согласованности действий и соблюдении рабочих интересов как раз и заключается 50% сложности проекта.
Точно правила? Или всё же отдельные рекомендации?
Системные безопасные шрифты есть всегда, покуда установлен браузер и пользователь серфит в интернете.
Вариант, что пользователь до вашего сайта успешно работал в интернете, а потом с вашим сайтом - хлоп и у него не оказалось системных шрифтов, это крайне малая вероятность. Это перед тем как зайти на ваш сайт, ему надо специально физически удалить все рабочие шрифты, чего в обыденной практике не бывает.
Совершенно необязательно. Важна детализация действия. Если пользователь просто зашёл на страницу, пролистал до конца и в течение пол минуты вышел - это отказ. Это плохой ПФ.
Определяющим является вовлеченность и важно, чтобы эта вовлеченность сопровождалась кликовыми действиями.
Здесь важен вот какой момент. Если листинг будет реализован через клик, то это конкретное целевое действие, а если листинг инициируется по тайм ауту в выбранной позиции экрана, то целевое действие зафиксировано не будет.
Самые оптимальные из системных: Verdana и Trebuchet MS.
Общие данные или отдаёт на экспорт в файл? Когда я пробовал экспорта не было точно.
Ну а сейчас похоже и не проверишь.
to TC: Смотрите на складчине общий доступ, я пол года назад брал, но сейчас потребность такая отпала.
Не уверен, что правильно понял ваш вопрос. Я не использую прокси в KK, cовсем. Мой рабочий шаг - съём частотки по 2-3 сотни результирующих запросов на страницу. Чаще - и того меньше, мне просто не нужно больше.
Насколько я помню бот детализированную выгрузку не делает.
Моё почтение. Нет, через KK я позицию не снимаю. Аккаунты Яндекса я использую исключительно для съёма частотки по отсортированным спискам.
Если у сайта не будет стабильных источников трафика и достаточных пользовательских сигналов, то Яндекс исключит страницы из поиска по МПС. Вероятнее всего тоже самое будет и с Гуглом - Гугл проиндексирует малую часть, ещё какая-то часть уйдет в supplemental index и большей частей страниц в индексе просто не будет.