Sterh

Sterh
Рейтинг
226
Регистрация
15.06.2006
askkt:
А такой вопрос. Как я понимаю исходя из сообщений на форуме в офлайн версии есть возможность моделирования схемы сайта на основе даных парсинга. А возможно ли туда выгрузить данные из сканера online? Т.е. скан сделать вашеми силами, а дальше уже в проге заниматься моделированием. Если говорить про большие сайты в плане именно моделирования, а не парсинга программа справится или будут проблемы?

В текущей версии возможности экспорта нет. В следующей сделаем. (Сроки не спрашивайте, работаем).

askkt:

Рекомендация "обратите внимание на код" - звучит интересно, но в коде нет тех данных о которых говорит сканер. Не имея данных, что видел сканнер, нельзя сказать откуда проблема.

Код, это не только страница.

Вам еще раз говорю - не умеет ни Lite, ни On-Line придумывать урлы и ссылки. Если их нашли, то они там были. Откуда они берутся - Вам лучше знать, т.к. это Ваш сайт.

Если каждый раз при сканировании у Вас разная структура сайта, то это ж🙅па. И работа оптимизатора найти дырку в этой самой, и заткнуть её. Или нанять специалиста.

У любой ПС, помимо парсера, еще имеются обработчики текста страниц и хренова туча фильтров, которые позволяют не парсить "вечные календари", петли и прочую хрень.

У нас же на данный момент, голая ссылочная структура. Которую и показывает парсер. И если парсер показывает что-то не то, то это что-то не то с вероятностью 99% сидит в сайте, а не парсере.

askkt:

В итоге по факту имеем ситуацию когда 2 разных сайта прогнали минимум по 2 раза. Все результаты разные... Очень хочется выяснить причину. Кто же виноват сервис или сайты...

Попробуйте прогнать сайт на каком либо другом движке. Думаю вопросы отпадут. В 99% случаев, "странности", которые выдает парсер есть результат кривого кода сайта.

И собственно "странности" - это не повод кричать, что сервис или софт кривой, а сигнал вэб-мастеру, что с сайтом что-то не так.

Сравнили во втором случае анкоры. Разница - 3 шт., и это битриксовская капча.

Kavabata:

Но павда почему то тех поддержка ответила "и к тому же наш сканер это инструмент анализа сайта, который позволяет вам увидеть его со стороны поисковой системы. Включая и запрещенные в robots.txt страницы."

А Вы, exp131, пишите ". Наши сканеры всегда учитывают robots.txt при работе. Если какие-то инструкции из вашего были проигнорированы или интерпретированы не правильно - пожалуйста сообщите нам об этом. С уточнением того, что по-вашему мнению, сработало неверно."

У Вас несколько различались группы деректив для Яндекса и для других роботов. Мы не Яндекс :) Поэтому руководствовались инструкциями для User-agent: *

Если вы хотели закрыть определенный раздел не только для Яндекса, но и для всех роботов, то получается, что сервис указал на ошибку в оптимизации сайта.

Собственно это и имелось ввиду, когда говорилось, что сервис помогает посмотреть на сайт глазами поисковых ботов.

Очень часто вэбмастера узнают про существование страниц, о которых они и не подозревали, о битых ссылках, не правильных редиректах и т.д. и т.п.

И иногда пустяковая ошибка может мешать вывести сайт в ТОП.

Miha Kuzmin (KMY):
Sterh, сервис не интересует, нужна именно прога. Будет?

Ковыряем...

Kavabata:
Попробовал Page Weight Online. Не понравилось что ценообразование похоже немного на визит к зубному врачу. Как бы не очень прозрачное. Так как до конца не известно сколько тебе это будет стоить. Как бы ты кладешь деньги, но становиться известным сумма только полностью после сканирования. И к сожалению возникает страх при сканировании больших и неизвестных сайтов. А вдруг сканирование будет происходить три недели и тебе это будет стоить тысяч 30 ? было бы круто понимать вилку цен.

Мы бы с радостью называли каждый раз конкретную стоимость, если бы точно знали количество страниц сайта. Но зачастую эта циферка не известна даже самому владельцу сайта.

В большинстве случаев, поисковики показывают цифру, близкую к реальной. На её основе расчитывается ориентировочная стоимость. Мы можем найти больше или меньше страниц. Если больше, то требуется доплата, если меньше - деньги возвращаются на счет.

Если какой-то сбой (например сайт генерирует дублирующие или пустые страницы), парсинг может быть остановлен, добавлен фильтр и перезапущен. При этом два раза считать стоимость не будем.

Так же, если возникли другие сбои (как например было - спарсилось два варианта сайта - с www и без оного), то всегда можете отписать в тех поддержку, обязательно рассмотрим и вернем то, что взяли лишнего.

Ну а на 30К рублей - это должно быть 30 млн. страниц :)

Miha Kuzmin (KMY):
Много страниц читать вредно - так прогу выпустили для подсчета многостраничных сайтов али нет?

Прогу нет, сервис да.

mrbukh:
Народ, объясните мне пожалуйста
Есть ИМ, со всех страниц стоит ссылка на корзину, у страницы с корзиной и регой был большой вес, решил закрыть с помощью скрипта, которые у пейдж вейта на сайте, закрыл на всех страницах, вес корзины упал на 1 пункт, но в тоже время и упал вес главной и остальных. Как быть?

Что-то Вы не так закрыли. Вес должен упасть не на 1 пункт, а до единицы (стартового веса страницы).

Убирая сквозную ссылку, вес, который доставался не нужной странице, распределяется по сайту в тех же пропорциях, что и остальной.

sergey885:
да, статус - ок

Скиньте УРЛ сайта и проблемной страницы в личку, или в саппорт через форму на сайте (туда даже лучше), посмотрю.

serpt:
Вопрос такого характера: имеем некую сумму всех весов страниц сайта, при добавлении нескольких внутренних ссылок сумма должна расти?

При добавлении ссылок - нет. При добавлении страниц - да.

Та внутренняя страница с 1 была со статусом 200ОК (без ошибок)?

Дело в том, что 1 - это стартовый вес страницы. Поэтому, если страница в расчете не участвует, то просто выводится именно этот стартовый вес.

Вес по ссылкам из head. На данный момент их убрать несколько проблематично, т.к. нет обработчика текста страницы, но в целом на общую картину они не влияют. Т.к. ссылки идут сквозные, то убрав их из расчета, вес распределиться по сайту в тех же пропорциях, в которых он есть сейчас.

zortexx:
alekzey, именно так.

Sterh, у каждого продукта будут свои пользователи. Сервис не всегда удобнее софта. Десктопный софт можно запустить на отдельной машине внутри локалки и сканировать всю связку на гигабите. Тут вы опять скажете что все упадет, не выдержит и повиснет. Чем не тест системы на HA? :-)

Что касается итераций, то софт в настройке все-таки гибче, так как сервис затачивается на скорость и большой поток клиентских сканов. Я правильно понимаю?

По поводу удобства использования десктопа для парсинга и расчета сайта на локалке я уже согласился.

Что касается сервиса, повторюсь. На скорость его затачивать бессмысленно. Поскольку просто пойдут ошибки. Та скорость, что есть сейчас - установлена экспериментальным путем, и на данный момент является оптимальной.

И для большого количества клиентов (количества обрабатываемых сайтов), нужно увеличивать не скорость (увеличивать кол-во потоков, сокращать паузу между запросами), а наращивать парк серверов.

Всего: 2038