В центр поддержки сбербанка или в центр поддержки вебмани звонить?
Он мог поставить галку - закрытые ссылки учитывать как внешние.
Кстати, надо (если сейчас есть) чтобы закрытыми только нофоллов считался, а ноиндекс под закрытые не попадал.
Внутри сайта нету смысла нофоллов использовать. Об этом ещё Мэтт катс писал. Вес всё равно пропадёт.
Не гарантирована - означает 50:50, я какие-то тяжёлые сайты помню сканировал, потом прога ещё веса считала много часов, а потом ещё открывалась пару часов после этого. А с лёгкими сайтами в неск сот страниц, всё идеально + при проектировании большого сайта, можно на модели проверить схему перелинковки.
Винда кстати, работает стабильно если это лицензия - глюки вызывают всякого рода дополнительные программы, и это вопрос к их разработчикам или железо. Софт без проблем неделю отрабатывал в круглосуточном режиме под высокой нагрузкой процессора, и это на обычном бытовом ПК.
technomaster, я тебе говорю - если сайт не очень большой. пиши урл. кто-нибудь в виде теста просканет с выводом результата в эксель.
euhenio, можно вручную изменить веса страниц. по умолчанию перед расчётом весов все они имеют вес - 1. можно какие-то поменять на более высокие.
Для версии 1.х нету. Если памяти достаточно конечно. На сайте же написано:
в альфе. чтобы иметь счёт - надо платить за обслуживание. неск лет назад было 30р/мес. щас уже больше может.
Не спорю, пока сырой продукт, для работы не пригоден почти, но сканер почти отладили по сравнению с первыми бетками - прогресс за месяц очень ощутимый.
Это бракованная версия была.
Я думаю, что они будут платить за его скачку и установку.
burunduk, за неделю много уже воды утекло, я имел ввиду последнюю версию сканера. Та на которой ты 60к страниц прогонял, у меня тоже глючила по самое немогу и последующие тоже, циклы всякие были и т.п. А последняя, уже больне-менее хотя есть отличия от числа в индексе пс, но это много причин может быть - дубли, картинки и т.п. надеюсь к концу октября будет готовый продукт с дополнениями.
1.х берёт до 5 тыс страниц не более. Об этом много раз писано в этой теме и предыдущей. В очень редких случаях больше может взять. А если много ссылок на странице, то и с в разы меньшим количеством страниц могут такие проблемы как вы описали. Плюс памяти много требует. Так что если у вас сайт приличный, то нет ничего в этом удивительного. Потому уже неск лет и разрабатывается 2.х - там скорости другие. Один сайт сканил 2.0 - 8,5 тыс страниц за час нашёл и расчёт весов почти мгновенный.