- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Три шага к монетизации сайта: как выбрать рекламную платформу
Сервисы можно и нужно тестировать
RTBSape

Доля трансграничной торговли в общем обороте российского онлайн-ретейла сократилась в 3 раза
До 166 млрд рублей
Оксана Мамчуева
forwebm.net, Большое спасибо, купил программу и действительно работает на обоих компах. В общем программой доволен).
А нельзя ли где нибудь глубину поиска поставить один раз и чтоб не надо было постоянно выставлять свой параметр?
И да... кстати нашёл у вас ошибочку маленькую)
Ну и слово "results" в русской версии было бы неплохо заменить на "результаты" (мало ли может кто вообще английсского не знает) :)... Но это уже так придирки), а так всё отлично!
Я доволен.
forwebm.net, Большое спасибо, купил программу и действительно работает на обоих компах. В общем программой доволен).
А нельзя ли где нибудь глубину поиска поставить один раз и чтоб не надо было постоянно выставлять свой параметр?
И да... кстати нашёл у вас ошибочку маленькую)
Ну и слово "results" в русской версии было бы неплохо заменить на "результаты" (мало ли может кто вообще английсского не знает) :)... Но это уже так придирки), а так всё отлично!
Я доволен.
Благодарю за указание на опечатку - будет исправлено.
По умолчанию значение выставляется в 30 результатов.
Изменив параметр - значение сохраняется непосредственно для выбранных запросов и держится неизменным для запроса до следующего "ручного" изменения или пока запрос не будет удален.
поскольку бывает необходимость проверить разные запросы с разной глубиной - параметр неизменный по умолчанию, изменить значение глубины можно только при добавлении запросов или изменить у уже добавленных запросов.
p.s Опция установки значения по умолчанию будет добавлена в свойства "поисковика" для возможности задавать для разных поисковиков разную глубину по умолчанию. Благодарю за пожелание.
Вот ещё на маленькую ошибочку наткнулся))
и ошибка в этом слове не только там... посмотрите по всему сайту, я раза 3 точно натыкался на неё.
forwebm.net, Большое спасибо, купил программу и действительно работает на обоих компах. В общем программой доволен).
А нельзя ли где нибудь глубину поиска поставить один раз и чтоб не надо было постоянно выставлять свой параметр?
И да... кстати нашёл у вас ошибочку маленькую)
Ну и слово "results" в русской версии было бы неплохо заменить на "результаты" (мало ли может кто вообще английсского не знает) :)... Но это уже так придирки), а так всё отлично!
Я доволен.
Сделано! Обновите программу.
Изменения:
- В свойства поисковика добавлена опция "Глубина просмотра для запросов (по умолчанию)"
Индивидуальна для каждого поисковика, по умолчанию имеет значение 30.
- Опечатки исправлены.
- Русские обозначение в русской версии установлены.
Исправлено.
Благодарю за уведомление - будет исправлено.
Обработка ситуации "Вы робот" успешно прошла проверку.
При возникновении подобной ситуации, по прежнему для ввода каптчи используется окно, вида:
Отклонений не обнаружено, будут проведены дополнительные тесты..
Скачал программу, приобрел ключ активации. Что хочется сказать.
По сайту.
Сайт очень неудобный. Надо думать над юзабилити. Просто информационное награмождение какое-то :( Искал "место" где оплатить, прыгал по страницам туда-сюда несколько минут, отвлекаясь на второстепенную информацию.
Далее по программе. В целом, доволен приобретением, но есть также и множество замечаний/предложений.
1) Мониторинг показателей сайта. Было бы отлично, если бы вы объединили сервисные усилия с проектом xtool.ru. Графа траста с его динамическими показателями была бы очень кстати. Пожалуйста, подумайте о внедрении это функциональной возможности.
Да, еще.. было бы очень кстати на всех показателях оставлять активные ссылки, чтобы можно было кликнуть и посмотреть актуальные данные выдачи.
Например, по Яндексу ссылкается столько-то ссылок. Какие? Приходится делать доп. запрос в поисковик.
2) Карта сайта. Я так понимаю, у меня вообще не работает. Добавляю сайт, нажимаю пуск, в течение полусекунды происходит инициализация и все. Статус - Остановлено. Кем/чем/почему/какая ошибка произошла - совершенно непонятно. Лога никакого нет :(
3) Комплексный анализ показателей сайта. Было бы очень кстати, сделать экспорт данные в xls и архив проверок.
4) Массовая проверка показателей. Тоже очень в тему было бы прикрутить показатели XT. Известно, что сервис платный, но доп. авторизацию в этот сервис и вывод значений был бы очень кстати.
5) Анализ контента сайта. Неплохо. Но надо добавить в перечень графу <strong>, <b>, ссылочки на кеши страниц в Яндексе и Гугле, даты их обновления, и помимо списка слов, сделать списки фраз, как в CS Yazzle.
6) PING. Хорошо бы ввести эталонные значения, чтобы понимать, насколько текущий пинг соответствует оптимальных показателям и, соот-но, величины отклонений с рекомендательной подсветкой: "оптимально", "хорошо", "удовлетворительно", "низко", "критично". Можно добавить доменные имена и географию, чтобы понимать географическую маршрутиризацию. На перспективу - историю проверок, хронологический график, чтобы понимать с каким хостингом имеешь дело.
7) Поиск конкурентов сайта\Проверка позиций - это вообще к чему сделано и какой в этом практический смысл? Выдача по запросу - это и есть весь актуальный конкурентный набор сайтов. Разница только в степени SEO ориентированности. По конкурентным запросам - выходят прокаченные грамотно оптимизированные морды и внутряки, по неконкурентным запросам страницы с контентным совпадением по запросам. Посмотрите как сделано у Ашманов в его Site-Auditor-е, тоже самое можно сделать и здесь. Как правило, оптимизатора интересует состав конкурентной десятки. Далее важно знать, по каким рабочим запросам конкуренты пересекаются, чтобы наиболее точно составить их перечень и просчитать их ссылочную массу. Ну и также важны показатели ТИЦ, кол-во бэков по Яху, чтобы сразу понять, где жирный, возрастной, авторитетный сайт, а где оптимизированный молоднях с эффектом ссылочного, чтобы как раз его и просчитывать.
8. Генератор ключевых слов - вот за эту вещь отдельно мерси и спасибо. Так или иначе перед каждым оптимизатором встает вопрос оптимального использования уже готового контента страниц в релевантном продвижении. Отличная и ОЧЕНЬ нужна тема, но пока реализована достаточно сыровата. Тут вот о чем нужно сказать.
a) Конечно, под каждую проверку нужно делать архив с экспортом в xls.
б) Конечно нужно предосматреть возможность не только единичной проверки, а всего сайта (по фильтрам по уровням 1УВ, 2УВ, 3УВ), потому что оптимизация сайта давно уже выросла из необходимости оптимизировать только главную, где нужна обзорная информация по всем страницам сайта. И если вы это сможете комплексно внедрить вы будете ОГО-ГО молодцы, потому что аналога я не видел.
в) ну и статистику по wordstat надо будет прикрепить к найденным запросам.
8. Редактор robots.txt. Подсветку ошибок хорошо бы сделать.
9. Всякие мелкие SEO утилиты, как-то транслитерация, сравнение текста, подсчет кол-ва символов, шифровка текста в javascript и т.д. - хорошо бы прикрепить к самой программе.
2) Карта сайта. Я так понимаю, у меня вообще не работает. Добавляю сайт, нажимаю пуск, в течение полусекунды происходит инициализация и все. Статус - Остановлено. Кем/чем/почему/какая ошибка произошла - совершенно непонятно. Лога никакого нет :(
Оно?
Сайт очень неудобный. Надо думать над юзабилити. Просто информационное награмождение какое-то :( Искал "место" где оплатить, прыгал по страницам туда-сюда несколько минут, отвлекаясь на второстепенную информацию.
Спасибо, будет учтено.
Будет рассмотрено.
Например, по Яндексу ссылкается столько-то ссылок. Какие? Приходится делать доп. запрос в поисковик.
Ручной просмотр уже имеется во всех сервисах, которые делают запросы в поисковики.
Для ручного просмотра используется команда:
Контекстное меню (правой кнопкой) -> Ручной просмотр результатов ->
У Вашего сайта в файле robots.txt стоит запрет на индексацию.
Цитата из файла:
Disallow: /
Для данных целей имеется сервис "Мониторинг показателей"
В случае, если данный параметр будет решено добавить в сервис "Мониторинг показателей" - он будет доступен во всех сервисах, где имеется возможность создания новых показателей.
Данная версия анализа контента "немного" устарела. Эта версия сервиса еще с самого начала старта программы. Изменения данного сервиса планируются.
Будет рассмотрено, спасибо.
Данный инструмент сделан в основном не для конкретного использования, а для написания собственных обработчиков. Сервис полностью работает на "скрипте", который определяется пользователем. Данный инструмент , как и инструмент "Генератор ключевых слов" специально вынесен за разделы всех инструментов в основном меню программы.
Данный инструмент также является "пользовательским".
На данный инструмент имеются отдельные планы, точнее на подобный инструмент, но более функциональный.
Имеется в сервисах "Мониторинг показателей" и "Мониторинг позиций"
в) ну и статистику по wordstat надо будет прикрепить к найденным запросам.
Благодарю, подумаем..
Данный редактор позволяет работать с текстом файла без "физического" написания кода "руками". Все манипуляции доступно делать из структуры кода файла. Подсветка ошибок в таком случае - попросту лишняя.
Будут добавлены по мере свободного времени. Спасибо за пожелание.
Благодарю за Ваши пожелания - по мере свободного времени, постараюсь все реализовать.
Спасибо.
Доступно обновление программы: v1.3.5.5
Изменения:
- Добавлена возможность настройки правил анализа файла robots.txt при сканировании сайта в сервисе "Управление SiteMap"
Настройка правила доступна из окна добавления/изменения параметров сайта.
Настройка устанавливается для каждого сайта в отдельности.
Вид окна настройки правил сканирования:
Правило позволяет установить список роботов, учет которых будет вестись при анализе запрета индексации при обходе сайта.
- Если Выбрано: "Использовать для анализа весь файл"
Будет анализироваться все содержимое файла robots.txt (все блоки роботов). При запрете индексации будет учтен первый из всех запретов.
Весь файл также будет анализироваться при любом другом типе анализа, если список роботов пуст.
- Если выбрано: "Анализировать всех роботов, кроме тех что в списке"
При таком типе анализа будут участвовать в анализе запрета все блоки роботов
(
например:
User-Agent: yandex
disallow: /
allow: /page
и так до следующего блока или конца файла..
)
кроме роботов, указанных в списке.
- Если выбрано "Анализировать роботов только из списка"
Будут учитываться блоки роботов только тех, которые указаны в списке.
Под висту не работает в принципе? или просто бывают баги и вы их не исправляете целеноправленно для висты?
Под висту не работает в принципе? или просто бывают баги и вы их не исправляете целеноправленно для висты?
Под ОС Vista возможны отклонения в работе программы. (100% работоспособность не гарантируется!)
Программа совместима с ОС: Windows XP (x86), Windows 7 (x86)