а руками/скриптом? вводите запрос -> вынимаете из ТОП10 keywords -> анализируете результат... медленно, но надёжно, и потом винить чужой кривой сервис не придётся :)...
[имхо] с тем же набором ключевиков, при отсутствии других факторов оптимизации можно не ТОП а ЖОП поиметь ;) . нужен комплексный подход, что, вроде бы, определяет только "ручной" вариант анализа топа [/имхо]
ну и отлично :) верхняя планка установлена. просто рекомендации, что для эффективной индексации сайта его надо обязательно бить на мелкие страницы - анахронизм (опять же - имхо ;)) последнее, и, видимо, главное: страница может быть мелкой, но вот генериться немерянное количество времени, так что конечный объём файла - не основной показатель...
а если нужно, что бы он не летал по сайту и собирал динамическую мелочь, а вдумчиво ел большие статические страницы? что мешает сразу в архитектуру закладывать проблемы поисковых ботов?
Гугел мониторит и количество страниц, и съеденный объём, и время на загрузку... даёт простор для определения оптимальной загрузки сервака и процесса индексации сайта. он же и "скорость" бота даёт кое-как регулировать... и (имхо) всё упирается в то как эффективнее использовать отведённое на твой сайт время работы бота...
опять же имхо ;) : боты отводят на периодическое "обслуживание" сайта ограниченный отрезок времени. "эффективность" работы бота, в таком случае, определяется средним временем обработки страницы, а это время определяется не только конечным объёмом страницы...
вставлю свое имхо: определяющий фактор эффективности - время загрузки страницы ботом.
а налоги? 😮 и вообще - там же социализм цветёт махровым цветом! ;) социализм и налоги - это так не гламурно...
:D отлегло, а то задумался уже о своей коммерческой слепоте... спасибо за ответ ;) мне надо было сформулировать по чётче...
"контекстная реклама" и "покупка ссылок из контекста" немого разные вещи ;) совсем разные, точнее...
Вы о покупке ссылок из контекста? интересно, можно чуть подробнее?