Sterh

Sterh
Рейтинг
226
Регистрация
15.06.2006
one:
Что будет стоить?

Пока не знаю, но всем, кто приобретал десктопные версии, будет существенная скидка :) Это могу пообещать точно :)

one:
При анализе сайта в 32к страниц постоянно где то на трети вылетает с ошибкой программка. Сайт в 4к страниц проанализировала нормально...

Да, сервер обычно отбивает программу где-то на 15-18К странице. Я писал об этом выше. Для больших сайтов сейчас готовится серверная версия.

sasa84:
Есть рекомендация как сделать программу еще полезнее.
Существуют сайты с phpsessid. Программа на них не может остановиться никогда.

Предлагаю при нажатии кнопки "Отмена" все таки не сбрасывать проект, а сохранять собранные ссылки и делать пригодным для расчета веса.

phpsessid в принципе можно настроить в ограничениях. По поводу сохранения. Возможно поменяем сам принцип сканирования и записи, что бы выводилось сразу постранично, но это еще не скоро будет.

crys:
Тут подумалось. А можно по внутренних ссылкам рассчитывать ссылочное ранжирование внутри сайта по определенным запросам? Опять же, условно.

Еще раз спасибо за программу!

В принципе можно, надо подумать :)

one:
Оплатил, жду... Какраз сегодня поступило предложение по обмену ссылками но думаетца неравноценное... Вот и проверим...

Отправил :)

2 sasa84, crys:

Спасибо за отзыв! Приятно осознавать, что сделали действительно полезную программу :)

Если я правильно понял первый пост, то:

у Вас есть список ключей

1) Слоны

2) Слоны розовые

3) Слоны зеленые

4) Слоны черные

По основному ключу "Слоны" выдается титульная. По остальным запросам Вы затачивали внутренние страницы, но все равно выдается титульная.

Что требуется:

а) убрать запросы 2-4 с титульной. Если они там присутствуют в виде ссылок на внутренние страницы - то их оставьте, остально поубивайте

б) из анкор листа на морду убрать ключи 2-4, которые Вы наверняка использовали для разбавления основного ключа

в) наставить ссылок на внутренние с соответствующими анкорами.

Удачи!

Str256:
Вы же сами дали ссылку на статью о расчёте PageRank, а его использует Гугл. Кстати у вас есть кроме этого топика какой-нибудь блог или сайт где можно посмотреть и купить прогу или всё только через вашу личку?

А Яндекс использует ВИЦ. Вы полагаете, что принцип расчета у них кардинально различается? Я нет. Формула описанная в статье не претендует на абсолютную идентичность истинному PR, она лишь показывает принцип, и помогает понять каким образом веса распределяются по сайту и по сети в целом.

Программа же, в свою очередь, позволяет увидеть как эта формула работает на собственных сайтах.

Сайта / блога по программе пока нет. Появится вместе с выходом серверной версии программы.

Str256:
Стоит ли её покупать, если Google не интересует?

А при чем здесь Гугль??? 😮

mr.mixer:
Жду окончания тестирования, потом обязательно куплю для коллекции.
ЗЫ Создалось впечатление, что сейчас все еще продолжается тестирование и обкатка программы, но уже за деньги. Кстати ни одного развернутого и аргументированного отзыва о полученной от программы пользе не увидел (поправьте если недосмотрел).

Это не тестирование, это издевательство :) Собственно на тестировании все баги, которые нашли, исправили и только после этого выпустили в продажу.

Сейчас же обнаружилось четыре нюанса:

1) Из-за индивидуальных настроек пользовательского компа (увеличенные шрифты) поехала разметка интерфейса - исправили, пользователю выслали патч.

2) Из-за особенностей разметки конкретного сайта программа дала сбой - исправили, пользователю выслали патч.

3) robots.txt - некоторые пишут весьма подробный роботс для конкретных поисковиков, для вех остальных сайт закрыт. Естественно, программа по таким сайтам неидет. Как решение - снять галочку "использовать robots.rxt" и все будет ок. Сейчас думаем, как сделать что бы программа следовала инструкциям, прописанным для Яндекса.

4) В некоторых случаях не определяет автоматически кодировку сайта. Связано это опять же с некорректной разметкой самого сайта. Решается установкой кодировки вручную. Впрочем, пытаемся обойти и этот нюанс.

И пятое. При большом количестве ссылок на странице программа работает медленно. Например если у вас открытое меню на 100 с лишним страниц, программа будет сканить медленно. Но это не значит, что она не работает.

Думаю завтра соберем все эти мелкие обновления в кучу и разошлем всем покупателям.

По поводу окупаемости. На я.ру в SEO-клубе приводил небольшой пример. Сюда просто скопирую:

"....Если говорить о площадках для статей, то площадка площадке рознь.

Например: есть реальная площадка на одной из бирж (УРЛ называть не буду). ТИЦ и PR морды 1200 и 5 соответственно. Прося 30 баксов за статью. Вроде приемлимо, НО!

На сайте есть каталог статей (в двух кликах от главной) и внешние ссылки. Прогнал через свою программку. Условный вес титульной 143,25, вес страници со статьей 5,75
Т.е. процент наследования веса составляет 4%, или переводя на пузомерки страница со статьей может иметь ТИЦ - 48 и PR - 0,2
А вот теперь думаем, имеет смысл платить 30 баксов за такую площадку, даже с условием "на всегда" или нет. А если учесть, что будут добаляться новые внешние ссылки и процент наследования будет падать? "

Sterh добавил 10.09.2008 в 19:16

vuuoh:
купил.
в целом доволен, обошло сайт, все ссылки отработало, весы показало примерно так как и предполагал.

но надо признать, что впечатление еще как от несколько сырой программы, хотя свои 20wmz она отрабатывает точно.

для автора: сделайте более понятный интерфейс, кнопки внизу, кнопки вверху, с какой начинать интуитивно не понятно.

желаемые фичи: указать какие страницы увеличить повесу, и чтобы подсказывало сколько ссылок добавить, и конечно бы рисование карты бы....

Спасибо за отзыв!

С интерфейсом поработаем. А вот моделирование перелинковки - задача посложнее и в ближайшем будующем обещать её боюсь. Будем думать.

Рисование карты - задача и области фантастики, и не столько потому, что её сложно осуществить, сколько потому, что её потом сложно будет разобрать. Просто представьте хотябы сто страничный сайт с перелинковкой "все на всех" - это такой клубок получится, что глаза сломашь...

А вот генерация карты сайта в XML вполне возможна. Но опять же, скоро не обещаю.

DmitryShustov:
Как бы бан по ip не получился (если следилки стоят у них конечно:))

Бан то врядли, но вот сервер отбил почти через три часа работы программы. Было "выдрано" 14848 страниц и 915044 ссылки.

Но, собственно программа на маааленький такой, локальный Яндекс и не претендует :) С "домашними" сайтами справляется весьма не плохо :)

DmitryShustov:
1. Парсим морду, парсим шаблон сайта (не меняющая масса ссылок на каждой странице)
2. Задаем кучку параметров, как то: кол-во страниц x типа (рубрик), y типа (товаров), z типа (новостей) и т.п.
3. Исходя из этих данных веса высчитываем.

Т.е. берем частично парсенный сайт + общий шаблон связей + надо подумать что еще и высчитываем тож самое. Получится некий результат с некими неточностями.

Теперь понял. Надо подумать.

Кстати, "травля" продолжается. 2 часа работы - почти 10000 страниц и 600000 ссылок. Пока не абртил, жду, что получится :)

Всего: 2038