WebMaster Utility - Инструменты для вебмастера и оптимизатора

draft666
На сайте с 09.08.2009
Offline
37
#111

forwebm.net, Большое спасибо, купил программу и действительно работает на обоих компах. В общем программой доволен).

А нельзя ли где нибудь глубину поиска поставить один раз и чтоб не надо было постоянно выставлять свой параметр?

И да... кстати нашёл у вас ошибочку маленькую)

Ну и слово "results" в русской версии было бы неплохо заменить на "результаты" (мало ли может кто вообще английсского не знает) :)... Но это уже так придирки), а так всё отлично!

Я доволен.

Меня знают многие, но лишь единицы знают, какой я на самом деле...
FN
На сайте с 09.03.2010
Offline
26
#112
draft666:
forwebm.net, Большое спасибо, купил программу и действительно работает на обоих компах. В общем программой доволен).
А нельзя ли где нибудь глубину поиска поставить один раз и чтоб не надо было постоянно выставлять свой параметр?

И да... кстати нашёл у вас ошибочку маленькую)


Ну и слово "results" в русской версии было бы неплохо заменить на "результаты" (мало ли может кто вообще английсского не знает) :)... Но это уже так придирки), а так всё отлично!
Я доволен.

Благодарю за указание на опечатку - будет исправлено.

А нельзя ли где нибудь глубину поиска поставить один раз и чтоб не надо было постоянно выставлять свой параметр?

По умолчанию значение выставляется в 30 результатов.

Изменив параметр - значение сохраняется непосредственно для выбранных запросов и держится неизменным для запроса до следующего "ручного" изменения или пока запрос не будет удален.

поскольку бывает необходимость проверить разные запросы с разной глубиной - параметр неизменный по умолчанию, изменить значение глубины можно только при добавлении запросов или изменить у уже добавленных запросов.

p.s Опция установки значения по умолчанию будет добавлена в свойства "поисковика" для возможности задавать для разных поисковиков разную глубину по умолчанию. Благодарю за пожелание.

SEO инструменты - десктопные (http://forwebm.net/webmprog/) и online (http://forwebm.net/seotoolsproject/)
draft666
На сайте с 09.08.2009
Offline
37
#113

Вот ещё на маленькую ошибочку наткнулся))

и ошибка в этом слове не только там... посмотрите по всему сайту, я раза 3 точно натыкался на неё.

FN
На сайте с 09.03.2010
Offline
26
#114
draft666:
forwebm.net, Большое спасибо, купил программу и действительно работает на обоих компах. В общем программой доволен).
А нельзя ли где нибудь глубину поиска поставить один раз и чтоб не надо было постоянно выставлять свой параметр?

И да... кстати нашёл у вас ошибочку маленькую)


Ну и слово "results" в русской версии было бы неплохо заменить на "результаты" (мало ли может кто вообще английсского не знает) :)... Но это уже так придирки), а так всё отлично!
Я доволен.

Сделано! Обновите программу.

Изменения:

- В свойства поисковика добавлена опция "Глубина просмотра для запросов (по умолчанию)"

Индивидуальна для каждого поисковика, по умолчанию имеет значение 30.

- Опечатки исправлены.

- Русские обозначение в русской версии установлены.

Вот ещё на маленькую ошибочку наткнулся))

Исправлено.

и ошибка в этом слове не только там... посмотрите по всему сайту, я раза 3 точно натыкался на неё.

Благодарю за уведомление - будет исправлено.

Ситуация "Вы робот" должна выдавать соответствующее окно с просьбой ввести код с каптчи. У Вас оно не появлялось? Возможно алгоритм обработки каптчи требует обновления, будет проверено, спасибо за уведомление.

Обработка ситуации "Вы робот" успешно прошла проверку.

При возникновении подобной ситуации, по прежнему для ввода каптчи используется окно, вида:

Отклонений не обнаружено, будут проведены дополнительные тесты..

anthony_
На сайте с 12.04.2007
Offline
264
#115

Скачал программу, приобрел ключ активации. Что хочется сказать.

По сайту.

Сайт очень неудобный. Надо думать над юзабилити. Просто информационное награмождение какое-то :( Искал "место" где оплатить, прыгал по страницам туда-сюда несколько минут, отвлекаясь на второстепенную информацию.

Далее по программе. В целом, доволен приобретением, но есть также и множество замечаний/предложений.

1) Мониторинг показателей сайта. Было бы отлично, если бы вы объединили сервисные усилия с проектом xtool.ru. Графа траста с его динамическими показателями была бы очень кстати. Пожалуйста, подумайте о внедрении это функциональной возможности.

Да, еще.. было бы очень кстати на всех показателях оставлять активные ссылки, чтобы можно было кликнуть и посмотреть актуальные данные выдачи.

Например, по Яндексу ссылкается столько-то ссылок. Какие? Приходится делать доп. запрос в поисковик.

2) Карта сайта. Я так понимаю, у меня вообще не работает. Добавляю сайт, нажимаю пуск, в течение полусекунды происходит инициализация и все. Статус - Остановлено. Кем/чем/почему/какая ошибка произошла - совершенно непонятно. Лога никакого нет :(

3) Комплексный анализ показателей сайта. Было бы очень кстати, сделать экспорт данные в xls и архив проверок.

4) Массовая проверка показателей. Тоже очень в тему было бы прикрутить показатели XT. Известно, что сервис платный, но доп. авторизацию в этот сервис и вывод значений был бы очень кстати.

5) Анализ контента сайта. Неплохо. Но надо добавить в перечень графу <strong>, <b>, ссылочки на кеши страниц в Яндексе и Гугле, даты их обновления, и помимо списка слов, сделать списки фраз, как в CS Yazzle.

6) PING. Хорошо бы ввести эталонные значения, чтобы понимать, насколько текущий пинг соответствует оптимальных показателям и, соот-но, величины отклонений с рекомендательной подсветкой: "оптимально", "хорошо", "удовлетворительно", "низко", "критично". Можно добавить доменные имена и географию, чтобы понимать географическую маршрутиризацию. На перспективу - историю проверок, хронологический график, чтобы понимать с каким хостингом имеешь дело.

7) Поиск конкурентов сайта\Проверка позиций - это вообще к чему сделано и какой в этом практический смысл? Выдача по запросу - это и есть весь актуальный конкурентный набор сайтов. Разница только в степени SEO ориентированности. По конкурентным запросам - выходят прокаченные грамотно оптимизированные морды и внутряки, по неконкурентным запросам страницы с контентным совпадением по запросам. Посмотрите как сделано у Ашманов в его Site-Auditor-е, тоже самое можно сделать и здесь. Как правило, оптимизатора интересует состав конкурентной десятки. Далее важно знать, по каким рабочим запросам конкуренты пересекаются, чтобы наиболее точно составить их перечень и просчитать их ссылочную массу. Ну и также важны показатели ТИЦ, кол-во бэков по Яху, чтобы сразу понять, где жирный, возрастной, авторитетный сайт, а где оптимизированный молоднях с эффектом ссылочного, чтобы как раз его и просчитывать.

8. Генератор ключевых слов - вот за эту вещь отдельно мерси и спасибо. Так или иначе перед каждым оптимизатором встает вопрос оптимального использования уже готового контента страниц в релевантном продвижении. Отличная и ОЧЕНЬ нужна тема, но пока реализована достаточно сыровата. Тут вот о чем нужно сказать.

a) Конечно, под каждую проверку нужно делать архив с экспортом в xls.

б) Конечно нужно предосматреть возможность не только единичной проверки, а всего сайта (по фильтрам по уровням 1УВ, 2УВ, 3УВ), потому что оптимизация сайта давно уже выросла из необходимости оптимизировать только главную, где нужна обзорная информация по всем страницам сайта. И если вы это сможете комплексно внедрить вы будете ОГО-ГО молодцы, потому что аналога я не видел.

в) ну и статистику по wordstat надо будет прикрепить к найденным запросам.

8. Редактор robots.txt. Подсветку ошибок хорошо бы сделать.

9. Всякие мелкие SEO утилиты, как-то транслитерация, сравнение текста, подсчет кол-ва символов, шифровка текста в javascript и т.д. - хорошо бы прикрепить к самой программе.

√ SEO консалтинг (/ru/forum/992763), маркетинговые изыскания, поиск новых точек роста. Опыт работы более 10 лет (http://akazansky.ru). В ТОП выдачи без предоплат (/ru/forum/comment/15807404) и оплатой за результат! Связь (http://akazansky.ru/snachala-rezultat-potom-oplata).
Crazy & Co.
На сайте с 25.01.2007
Offline
211
#116
anthony_:

2) Карта сайта. Я так понимаю, у меня вообще не работает. Добавляю сайт, нажимаю пуск, в течение полусекунды происходит инициализация и все. Статус - Остановлено. Кем/чем/почему/какая ошибка произошла - совершенно непонятно. Лога никакого нет :(

Оно?

FN
На сайте с 09.03.2010
Offline
26
#117
По сайту.
Сайт очень неудобный. Надо думать над юзабилити. Просто информационное награмождение какое-то :( Искал "место" где оплатить, прыгал по страницам туда-сюда несколько минут, отвлекаясь на второстепенную информацию.

Спасибо, будет учтено.

1) Мониторинг показателей сайта. Было бы отлично, если бы вы объединили сервисные усилия с проектом xtool.ru. Графа траста с его динамическими показателями была бы очень кстати. Пожалуйста, подумайте о внедрении это функциональной возможности.

Будет рассмотрено.

Да, еще.. было бы очень кстати на всех показателях оставлять активные ссылки, чтобы можно было кликнуть и посмотреть актуальные данные выдачи.
Например, по Яндексу ссылкается столько-то ссылок. Какие? Приходится делать доп. запрос в поисковик.

Ручной просмотр уже имеется во всех сервисах, которые делают запросы в поисковики.

Для ручного просмотра используется команда:

Контекстное меню (правой кнопкой) -> Ручной просмотр результатов ->

2) Карта сайта. Я так понимаю, у меня вообще не работает. Добавляю сайт, нажимаю пуск, в течение полусекунды происходит инициализация и все. Статус - Остановлено. Кем/чем/почему/какая ошибка произошла - совершенно непонятно. Лога никакого нет :(

У Вашего сайта в файле robots.txt стоит запрет на индексацию.

Цитата из файла:

User-agent: Slurp
Disallow: /
3) Комплексный анализ показателей сайта. Было бы очень кстати, сделать экспорт данные в xls и архив проверок.

Для данных целей имеется сервис "Мониторинг показателей"

4) Массовая проверка показателей. Тоже очень в тему было бы прикрутить показатели XT. Известно, что сервис платный, но доп. авторизацию в этот сервис и вывод значений был бы очень кстати.

В случае, если данный параметр будет решено добавить в сервис "Мониторинг показателей" - он будет доступен во всех сервисах, где имеется возможность создания новых показателей.

5) Анализ контента сайта. Неплохо. Но надо добавить в перечень графу <strong>, <b>, ссылочки на кеши страниц в Яндексе и Гугле, даты их обновления, и помимо списка слов, сделать списки фраз, как в CS Yazzle.

Данная версия анализа контента "немного" устарела. Эта версия сервиса еще с самого начала старта программы. Изменения данного сервиса планируются.

6) PING. Хорошо бы ввести эталонные значения, чтобы понимать, насколько текущий пинг соответствует оптимальных показателям и, соот-но, величины отклонений с рекомендательной подсветкой: "оптимально", "хорошо", "удовлетворительно", "низко", "критично". Можно добавить доменные имена и географию, чтобы понимать географическую маршрутиризацию. На перспективу - историю проверок, хронологический график, чтобы понимать с каким хостингом имеешь дело.

Будет рассмотрено, спасибо.

7) Поиск конкурентов сайта\Проверка позиций - это вообще к чему сделано и какой в этом практический смысл? Выдача по запросу - это и есть весь актуальный конкурентный набор сайтов. Разница только в степени SEO ориентированности. По конкурентным запросам - выходят прокаченные грамотно оптимизированные морды и внутряки, по неконкурентным запросам страницы с контентным совпадением по запросам. Посмотрите как сделано у Ашманов в его Site-Auditor-е, тоже самое можно сделать и здесь. Как правило, оптимизатора интересует состав конкурентной десятки. Далее важно знать, по каким рабочим запросам конкуренты пересекаются, чтобы наиболее точно составить их перечень и просчитать их ссылочную массу. Ну и также важны показатели ТИЦ, кол-во бэков по Яху, чтобы сразу понять, где жирный, возрастной, авторитетный сайт, а где оптимизированный молоднях с эффектом ссылочного, чтобы как раз его и просчитывать.

Данный инструмент сделан в основном не для конкретного использования, а для написания собственных обработчиков. Сервис полностью работает на "скрипте", который определяется пользователем. Данный инструмент , как и инструмент "Генератор ключевых слов" специально вынесен за разделы всех инструментов в основном меню программы.

8. Генератор ключевых слов - вот за эту вещь отдельно мерси и спасибо. Так или иначе перед каждым оптимизатором встает вопрос оптимального использования уже готового контента страниц в релевантном продвижении. Отличная и ОЧЕНЬ нужна тема, но пока реализована достаточно сыровата. Тут вот о чем нужно сказать.

Данный инструмент также является "пользовательским".

На данный инструмент имеются отдельные планы, точнее на подобный инструмент, но более функциональный.

a) Конечно, под каждую проверку нужно делать архив с экспортом в xls.

Имеется в сервисах "Мониторинг показателей" и "Мониторинг позиций"

б) Конечно нужно предосматреть возможность не только единичной проверки, а всего сайта (по фильтрам по уровням 1УВ, 2УВ, 3УВ), потому что оптимизация сайта давно уже выросла из необходимости оптимизировать только главную, где нужна обзорная информация по всем страницам сайта. И если вы это сможете комплексно внедрить вы будете ОГО-ГО молодцы, потому что аналога я не видел.
в) ну и статистику по wordstat надо будет прикрепить к найденным запросам.

Благодарю, подумаем..

8. Редактор robots.txt. Подсветку ошибок хорошо бы сделать.

Данный редактор позволяет работать с текстом файла без "физического" написания кода "руками". Все манипуляции доступно делать из структуры кода файла. Подсветка ошибок в таком случае - попросту лишняя.

9. Всякие мелкие SEO утилиты, как-то транслитерация, сравнение текста, подсчет кол-ва символов, шифровка текста в javascript и т.д. - хорошо бы прикрепить к самой программе.

Будут добавлены по мере свободного времени. Спасибо за пожелание.

Благодарю за Ваши пожелания - по мере свободного времени, постараюсь все реализовать.

Спасибо.

FN
На сайте с 09.03.2010
Offline
26
#118

Доступно обновление программы: v1.3.5.5

Изменения:

- Добавлена возможность настройки правил анализа файла robots.txt при сканировании сайта в сервисе "Управление SiteMap"

Настройка правила доступна из окна добавления/изменения параметров сайта.

Настройка устанавливается для каждого сайта в отдельности.

Вид окна настройки правил сканирования:

Правило позволяет установить список роботов, учет которых будет вестись при анализе запрета индексации при обходе сайта.

- Если Выбрано: "Использовать для анализа весь файл"

Будет анализироваться все содержимое файла robots.txt (все блоки роботов). При запрете индексации будет учтен первый из всех запретов.

Весь файл также будет анализироваться при любом другом типе анализа, если список роботов пуст.

- Если выбрано: "Анализировать всех роботов, кроме тех что в списке"

При таком типе анализа будут участвовать в анализе запрета все блоки роботов

(

например:

User-Agent: yandex

disallow: /

allow: /page

и так до следующего блока или конца файла..

)

кроме роботов, указанных в списке.

- Если выбрано "Анализировать роботов только из списка"

Будут учитываться блоки роботов только тех, которые указаны в списке.

75
На сайте с 29.01.2011
Offline
39
#119

Под висту не работает в принципе? или просто бывают баги и вы их не исправляете целеноправленно для висты?

FN
На сайте с 09.03.2010
Offline
26
#120
7tvn54w0:
Под висту не работает в принципе? или просто бывают баги и вы их не исправляете целеноправленно для висты?

Под ОС Vista возможны отклонения в работе программы. (100% работоспособность не гарантируется!)

Программа совместима с ОС: Windows XP (x86), Windows 7 (x86)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий