Пока не знаю, но всем, кто приобретал десктопные версии, будет существенная скидка :) Это могу пообещать точно :)
Да, сервер обычно отбивает программу где-то на 15-18К странице. Я писал об этом выше. Для больших сайтов сейчас готовится серверная версия.
phpsessid в принципе можно настроить в ограничениях. По поводу сохранения. Возможно поменяем сам принцип сканирования и записи, что бы выводилось сразу постранично, но это еще не скоро будет.
В принципе можно, надо подумать :)
Отправил :)
2 sasa84, crys:
Спасибо за отзыв! Приятно осознавать, что сделали действительно полезную программу :)
Если я правильно понял первый пост, то:
у Вас есть список ключей
1) Слоны
2) Слоны розовые
3) Слоны зеленые
4) Слоны черные
По основному ключу "Слоны" выдается титульная. По остальным запросам Вы затачивали внутренние страницы, но все равно выдается титульная.
Что требуется:
а) убрать запросы 2-4 с титульной. Если они там присутствуют в виде ссылок на внутренние страницы - то их оставьте, остально поубивайте
б) из анкор листа на морду убрать ключи 2-4, которые Вы наверняка использовали для разбавления основного ключа
в) наставить ссылок на внутренние с соответствующими анкорами.
Удачи!
А Яндекс использует ВИЦ. Вы полагаете, что принцип расчета у них кардинально различается? Я нет. Формула описанная в статье не претендует на абсолютную идентичность истинному PR, она лишь показывает принцип, и помогает понять каким образом веса распределяются по сайту и по сети в целом.
Программа же, в свою очередь, позволяет увидеть как эта формула работает на собственных сайтах.
Сайта / блога по программе пока нет. Появится вместе с выходом серверной версии программы.
А при чем здесь Гугль??? 😮
Это не тестирование, это издевательство :) Собственно на тестировании все баги, которые нашли, исправили и только после этого выпустили в продажу.
Сейчас же обнаружилось четыре нюанса:
1) Из-за индивидуальных настроек пользовательского компа (увеличенные шрифты) поехала разметка интерфейса - исправили, пользователю выслали патч.
2) Из-за особенностей разметки конкретного сайта программа дала сбой - исправили, пользователю выслали патч.
3) robots.txt - некоторые пишут весьма подробный роботс для конкретных поисковиков, для вех остальных сайт закрыт. Естественно, программа по таким сайтам неидет. Как решение - снять галочку "использовать robots.rxt" и все будет ок. Сейчас думаем, как сделать что бы программа следовала инструкциям, прописанным для Яндекса.
4) В некоторых случаях не определяет автоматически кодировку сайта. Связано это опять же с некорректной разметкой самого сайта. Решается установкой кодировки вручную. Впрочем, пытаемся обойти и этот нюанс.
И пятое. При большом количестве ссылок на странице программа работает медленно. Например если у вас открытое меню на 100 с лишним страниц, программа будет сканить медленно. Но это не значит, что она не работает.
Думаю завтра соберем все эти мелкие обновления в кучу и разошлем всем покупателям.
По поводу окупаемости. На я.ру в SEO-клубе приводил небольшой пример. Сюда просто скопирую:
"....Если говорить о площадках для статей, то площадка площадке рознь. Например: есть реальная площадка на одной из бирж (УРЛ называть не буду). ТИЦ и PR морды 1200 и 5 соответственно. Прося 30 баксов за статью. Вроде приемлимо, НО! На сайте есть каталог статей (в двух кликах от главной) и внешние ссылки. Прогнал через свою программку. Условный вес титульной 143,25, вес страници со статьей 5,75 Т.е. процент наследования веса составляет 4%, или переводя на пузомерки страница со статьей может иметь ТИЦ - 48 и PR - 0,2 А вот теперь думаем, имеет смысл платить 30 баксов за такую площадку, даже с условием "на всегда" или нет. А если учесть, что будут добаляться новые внешние ссылки и процент наследования будет падать? "
Sterh добавил 10.09.2008 в 19:16
Спасибо за отзыв!
С интерфейсом поработаем. А вот моделирование перелинковки - задача посложнее и в ближайшем будующем обещать её боюсь. Будем думать.
Рисование карты - задача и области фантастики, и не столько потому, что её сложно осуществить, сколько потому, что её потом сложно будет разобрать. Просто представьте хотябы сто страничный сайт с перелинковкой "все на всех" - это такой клубок получится, что глаза сломашь...
А вот генерация карты сайта в XML вполне возможна. Но опять же, скоро не обещаю.
Бан то врядли, но вот сервер отбил почти через три часа работы программы. Было "выдрано" 14848 страниц и 915044 ссылки.
Но, собственно программа на маааленький такой, локальный Яндекс и не претендует :) С "домашними" сайтами справляется весьма не плохо :)
Теперь понял. Надо подумать.
Кстати, "травля" продолжается. 2 часа работы - почти 10000 страниц и 600000 ссылок. Пока не абртил, жду, что получится :)