Нормальные логи - это логи с сервера.
У всех поисковиков разный алгоритм ранжирования.
А нормальные логи смотрели?
Лучше не искать эту тонкую грань, а просто не использовать методы так называемой чёрной оптимизации.
За обман. Наиболее часто за искусственное завышение частоты или веса ключевых слов на странице. Методов для этого много: от примитивного скрытого текста до клоакинга.
В автоматическом режиме сайт за это не забанят, ведь невидимые слои могут использоваться для навигации, подсказок и т.д.
Но забанить могут вручную, если кто-то заметит и пожалуется в тот же Яндекс на то, что скрытый слой на сайте используется для повышения релевантности страницы по каким-либо запросам, то есть там размещается скрытый от пользователей текст (без разницы "грамотный" или "неграмотный").
Трафик с Яндекса куда? Или Вас интересует посещаемость самого Яндекса?
Что с посещаемостью? Если на сайт несколько дней никто не заходит, то счётчик аннулируется.
Вы ссылочное ранжирование не учитываете...
Работать над сайтом. В частности над содержанием и внешними ссылками. Говорят, что DMOZ влияет на выдачу Google, попробуйте там зарегистрироваться.
На этом форуме целый раздел посвящен Google, почитайте.
База Google побольше будет, да и алгоритм ранжирования у разных поисковых систем отличается.