Sterh

Sterh
Рейтинг
226
Регистрация
15.06.2006
nickicool:
А можно добавить не только вывод списка страниц, которые ссылаются на данную страницу, но и список анкоров под которыми эти ссылки стоят? Так проще будет, причем значительно, контроллировать не только статический вес но и анкорный.

В Lite версии этого делать не будем, в след. версии запланировано.

Викентий:
Нормальная ссылка отображается как битая. Кому верить?)

Программе :) Если "нормальные" ссылки улетают во вкладку "битые" или "внешние", то в 99% случаев это косяк верстки сайта. Посмотрите с каких страниц ведет "битая" ссылка и проверьте код.

PS спарсил Ваш сайт, у Вас "Исключение во время работы... ". Поставьте паузу между запросами побольше - должно нормально спарситься

KySoK:
А у других ГС такой же тематики что то есть ?

ну вот поэтому Вас в индексе и нет, что других ГС хватает. Зачем еще один?

mrister:
При проверке проиндексированности ссылок в яндексе, плагин проверяет лишь несколько страниц выделяя как обычно зеленым позицию YAP, например на 7 позиции парсинг прекращается и снизу выскакивает окно с надписью "Капча, проверка остановлена", что необходимо сделать, чтобы как раньше выполнялась полноценная поверка? спасибо за помощь.

Зайти на Яндекс, забить любой запрос и ввести капчу.

stilnaya:
Эта унылая писанина может и не интересна, но хоть уникальна. А по опыту знаю, что писанину не читают - смотрят фото и ... заказывают!

Месяц - мало. 2-3-4?

Уникальность в том смысле, в котором её понимают большинство оптимизаторов (ни где не повторяющийся порядок слов и букофф), давно не та уникальность, которую понимают поисковики.

Сайт симпатичный, но по содержанию и стратегии раскрутки - типичный МФА.

Ваш рецепт прост:

Один ключ "Дизайн квартир", фотки с подробным описанием проекта, контекст + социалки.

MIND:

Sterh, видимо, давно не обновлялись. Мы уже внесли в программу защиту от такой проблемы. Сейчас скину в личку ссылку на ручное обновление.

Ага, в коем то веке решил запросы поковырять, а тут такой облом :)

Ссылку получил. Обновился. Благодарю :)

Не обновляется. Выдает:

Выполняем резервное копирование файлов из папки программы в директорию:
D:\KeyCollectorHDD-Multi\KC_Backup_05.02.2012 12-27-53\
Удаляем файлы текущей версии...
Выполняем распаковку архива новой версии...


======= ВОЗНИКЛА ОШИБКА ПРИ ОБНОВЛЕНИИ ПРОГРАММЫ =======
D:\KeyCollectorHDD-Multi\new\new.zip is not a valid zip file

Куда бечь, что делать? :)

vold57:
Дело не только в количестве ссылок со страницы. Подобная перелинковка (навигация) говорит о том, что у вас нет никакой структуры сайта, а это уже с точки зрения ПС минус.

Не парьте людям мозг.

ТС не слушайте никого - нормально все у Вас.

Возможные минусы:

Большое выпадающее меню часто делается ява-скриптом, что может негативно влиять на индексацию.

Если страниц много, такое меню не удобно с точки зрения пользования. Лично меня раздражает, когда долго и нудно вылавливаешь мышкой нужную ссылку во всех этих выпадающих списках.

Ну а ПС абсолютно фиолетово какое у Вас меню.

xikarx:
Еще вопрос - по PageWeight Base - вообще прикола не понял..??
Программа просто собирает ссылки с сайта, показывает код ответа сервера. Т.е. базовый функционал - на уровне Xenu. Про рассчет веса ничего нигде в программе не нашел. Как и не нашел никаких окошек, в которых можно было бы посмотреть что-то подробное, типа "на какой странице->на какую страницу, сколько и т.д.."
Я понимаю. что пока это еще тестовая версия -но что тестить то? Насколько быстро прога ссылки собирает?

Да, сейчас тестируем именно парсер. Поскольку 90% проблем и пожеланий было связано именно с парсингом, то и парсер выделили в отдельный модуль.

По поводу расчета веса в частности и перелинковки вообще - есть альфа, которая считает, но мы её пока не выкладываем. В модуле перелинковки основная часть (по трудозатратам) не расчет, а функции моделирования, над которыми сейчас работаем.

.. вот.. ну а Base не только ссылки тянет... собственно она потому Базой и обозвана, что на ней еще много чего понастроить можно ;)

Нормально все.. типичная схема с обширным связыванием.

Miha Kuzmin (KMY):
А почему?

Скорость тыщ для 10-20 на итерацию?

А зачем? если это картинка, то можно закрыть в настройках (они там уже закрыты по умолчанию).

считает быстро, парсит долго. Если сайт объемом 10К страниц, то не дам гарантию, что она его вытащит.

Допиливаем вторую версию, там принципиально другая схема работы. На тестирование выложен парсер (скачать и потестить бесплатно, может любой покупатель текущей версии в личном кабинете). Он парсит пошустрее и доступны практически любые объемы.

Альфа модуля расчета (пока не выкладывали) обсчитывала 35К страниц и 700К ссылок минут за 20 на 10 итерациях.

Всего: 2038