Переходы не нащелкает :)
Для первых двух пунктов нужно парсить поисковики. Так что пока увы. Для третьего - нужны словари. Так что тоже пока увы.
Уникальность текста внутри сайта будет реализовано в последствии, но не в рамках тех. аудита.
В принципе так и подразумевалось - если статус отличет от 200ОК, то выводим УРЛ и код ошибки
Вот скорость загрузки в базу не пишется.
Нет ли какого сайтика с ворнингами? Глянуть бы, как парсер их отработает
Принято. В принципе метатеги можно собрать и вывести любые.
А это что за зверь такой? :)
В принципе, для того, что бы увидеть разницу, достаточно и двух. Чем больше итераций - тем меньше погрешность и разница очевиднее. Я обычно выставляю 6 итераций.
Операционка какая? Вот этот ответ:
проблеммы не решает?
Понятно, спасибо.
я малость не понял... Вы все данные из ГА берете и представляете их в другом виде?
Ну, вобщем да.
Есть еще вариант моделирования. Если проставлять нужно не слишком больше количество ссылок, то можно предварительно смоделировать ситуацию в программе и рассчитать, что получится. Тогда повторно парсить не надо.
Единственный минус - если нужно поменять много ссылок, то это долго и муторно :(
В следующей версии модуль моделирования будет гораздо более удобнее и функциональнее.
Здравствуйте!
Зависит от Вашего компа, канала и самого сайта. Может занять от часа до трех.
Снимите галку "использовать robots". А исключения добавьте в настройках - так стабильнее работает
Угу, читаем инструкции только тогда, когда уверены, что сломали )))
Будут вопросы - обращайтесь :)