- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Это гуд. А касается морфологии какой опыт будет учтен? Ведь сами понимаете, что успех программы завесит все же от того, как он сможет найти в обычном тексте нормальные ключевые фразы;) Т.е. то, что сейчас не хватает сеошникам;) Думаю такую программу и за 200 баксов будут покупать) к примеру, у меня 100 статей по недвижке, но написаны они без учета ключевых фраз, а как было прекрасно мне найти в них ключи;) и таких толпы желающих.
Как будет работать морфология - я описал чуть выше.
Например, взяли словосочетание "шерстяные носки". Если в тексте будет "шерстяных носков", "шерстяными носками" и "шерстяным носкам" - программа выделит и их при щелчке на "шерстяные носки" в таблице.
P.s. Кстати еще, неплохо автоматическую проверку уникальности текстов или как отдельную программу или как функцию в этой. Запустил и пускай проверяется.
Возможно, но много позже.
P.s.s. Кстати еще, на форуме есть люди, которые предлагают безлимитный вариант XML, засчет того, что у них кучу активированных XML и привязанных к IP, так вот мы можете с ними договорится или сделать свой сервис, аренда XML запросов в сервисе, к примеру - 1 день - 1 бакс, месяц - 30 баксов. Для тех, у кого есть деньги, проверка будет просто быстрее и удобнее.
Мне нет особой пользы в XML, так как через него нельзя проверять частоту запросов ключевой фразы.
думаю автор программы прав в том, что не следует перегружать прогу лишними наворотами. программа должна выполнять функции соответственноназванию.и выполнять полнофункционально
Тег strong уже добавлен в программе, его можно выбрать в настройках и полужирное выделение экспортируется в виде <strong>, а не в виде <b>.
А с остальными задачами справится любой современный дорген.
У меня не было цели делать из этой программы генератор дорвеев - это программа для тонкой ручной работы, а не грязного автоматического заспамливания текста ключевиками.
Ну почему генератор дорвеев🙅, речь идет о чистой работе над текстом и действительно его оптимизацией. Ведь всем известно, что в статье должны присутствовать теги h1, h2, h3, они указывают поисковым системам и людям о чем пойдет речь дальше. Например, возьмем описание мультфильма чебурашка и крокодил гена состоящего из 4 абзацев. Встречается фраза мультфильм чебурашка с частотой 1200, его стоит отметить и поставить в название статьи и заключить в тег h1. Идем дальше и находим, что после двух абзацев идет речь о персонаже таком как крокодил гена, в описании этих абзацев встречается ключевая фраза с частотой 700 крокодил гена заключаем его в тег h2 и ставим в название абзаца, чем указываем, что дальше речь пойдет о крокодиле на выходе получается красивый текст для человека и поисковых систем .
---------- Добавлено 07.02.2012 в 15:01 ----------
Есть предложение подключить работу программы к сервису SEO-proxy, открыт API. И решится вопрос капчи и не только.
Клиент просто задает условия, а сервис SEO-proxy решает задачу, возвращая готовое решение.
Наши клиенты гарантированно защищены от бана по IP, им не нужно каждые 5 минут вводить вручную код с картинки. Вместо этого они спокойно работают, уделяя максимум времени рабочей деятельности и решению более важных задач.
Пример использования API на языке PHP можно скачать.
Реализацию на других языках можно взять.
http://seo-proxy.ru/
интересная програмка )
а вопрос
с со своим списком ключей она может работать?
интересная програмка )
а вопрос
с со своим списком ключей она может работать?
пока нет, но такую возможность можно организовать
а со своим списком страниц сайта? скажем, уже есть сайт со статьями. можно скормить программе карту сайта или список урлов, чтобы она сама спарсила тексты и обработала.
:)
а вообще планирую купить - как только прикрутите морфологию. без нее нет смысла.
а со своим списком страниц сайта? скажем, уже есть сайт со статьями. можно скормить программе карту сайта или список урлов, чтобы она сама спарсила тексты и обработала.
:)
а вообще планирую купить - как только прикрутите морфологию. без нее нет смысла.
Встроенного парсера сайта тоже пока нет. Но я думал об этом и меня уже спрашивали - тоже прикручу со временем.
Прикупил сегодня программу и вот что получается, добавил 10 файлов, настроил запустил.Получил частоту по запросам, а дальше нужно кликать два раза по каждой фразе, почему нет функции отметил нужные фразы и нажать добавить, что бы прога сама отметила в тексте отмеченные фразы. И вот еще в статье 2000 знаков есть нужные две, три ключевые фразы почему нельзя их отметить и добавить вместе, а только какую то одну?
Почему, когда в настройках отмечаешь двух,трехсловные запросы и четырех, программа выводит в ключевые фразы стоп слова которые Яндекс.Вордстат считает несущественными (Например, это слова «только», «когда», «может» и другие - всего более 100 слов), как описано у Вас в инструкции.
А нормальные двух, трехсловные фразы пропускает. Или вот пример выводит в ключи двух, трехсловный запрос и четырехсловный ( грязной Постарайтесь застраховать ) из предложения:
-Учитывая, что угонщикам больше нравятся чистые машины, оставляйте ее при длительной стоянке грязной.
-Постарайтесь застраховать машину на случай угона.
Программа берет слово из соседнего предложения, после знака препинания, тире, явно такого не должно быть. Вот скрин:
Без html кода точно так выбирает.
Почему программа не выбирает застраховать машину, где 135 чистых вхождений?
Если импортируешь красивый текст в html разметке, который разбит по абзацам, по заголовкам, программа не понимает html и показывает все в куче, текст и код - где абзац, где предложение, нужно попробовать еще найти. В этом заключается чистая работа программы?
Для такой цены такие мелочи нужно доработать.
Программе срочно ☝ нужны доработки.
А как считаете Вы?
Прикупил сегодня программу и вот что получается, добавил 10 файлов, настроил запустил.Получил частоту по запросам, а дальше нужно кликать два раза по каждой фразе, почему нет функции отметил нужные фразы и нажать добавить, что бы прога сама отметила в тексте отмеченные фразы. И вот еще в статье 2000 знаков есть нужные две, три ключевые фразы почему нельзя их отметить и добавить вместе, а только какую то одну?
Потому что текст обычно оптимизируется под какую-то одну фразу. На это и рассчитано. В принципе - не вижу проблем, чтобы не сделать то оптимизацию по нескольким словам, если это удобно пользователю. Записал в доработки.
Почему, когда в настройках отмечаешь двух,трехсловные запросы и четырех, программа выводит в ключевые фразы стоп слова которые Яндекс.Вордстат считает несущественными (Например, это слова «только», «когда», «может» и другие - всего более 100 слов), как описано у Вас в инструкции.
Программа отсеивает стоп-слова при импорте. Если до импорта вы этот флажок в настройках не поставили - программа будет учитывать и стоп-слова.
А нормальные двух, трехсловные фразы пропускает.
Не совсем понял, что именно программа по-вашему пропустила. Если можно - дайте пример текста и пропущенной фразы.
Или вот пример выводит в ключи двух, трехсловный запрос и четырехсловный ( грязной Постарайтесь застраховать ) из предложения:
-Учитывая, что угонщикам больше нравятся чистые машины, оставляйте ее при длительной стоянке грязной.
-Постарайтесь застраховать машину на случай угона.
Программа берет слово из соседнего предложения, после знака препинания, тире, явно такого не должно быть.
Почему же такого не должно быть? Программа именно так и работает. Это добавит несколько фраз в общий список, что не так уж существенно, но может натолкнуть пользователя на какие-то новые идеи.
Почему программа не выбирает застраховать машину, где 135 чистых вхождений?
На скрине у вас трехсловные запросы, "застраховать машину" - двухсловный. Прокрутите список ключевиков и, если в настройках выбрали двухсловные - найдете "застраховать машину".
Если импортируешь красивый текст в html разметке, который разбит по абзацам, по заголовкам, программа не понимает html и показывает все в куче, текст и код - где абзац, где предложение, нужно попробовать еще найти. В этом заключается чистая работа программы?
Программа не разбирает HTML-разметку. Поэтому пользоваться ей стоит до HTML-разметки.
Для такой цены такие мелочи нужно доработать.
Программе срочно ☝ нужны доработки.
А как считаете Вы?
Насчет доработок согласен, они происходят, работа над программой ведется.
Цена, по-моему, вполне адекватная для такого функционала. Будет расти функционал - будет расти и цена.
Ну почему генератор дорвеев🙅, речь идет о чистой работе над текстом и действительно его оптимизацией. Ведь всем известно, что в статье должны присутствовать теги h1, h2, h3, они указывают поисковым системам и людям о чем пойдет речь дальше. Например, возьмем описание мультфильма чебурашка и крокодил гена состоящего из 4 абзацев. Встречается фраза мультфильм чебурашка с частотой 1200, его стоит отметить и поставить в название статьи и заключить в тег h1. Идем дальше и находим, что после двух абзацев идет речь о персонаже таком как крокодил гена, в описании этих абзацев встречается ключевая фраза с частотой 700 крокодил гена заключаем его в тег h2 и ставим в название абзаца, чем указываем, что дальше речь пойдет о крокодиле на выходе получается красивый текст для человека и поисковых систем .
---------- Добавлено 07.02.2012 в 15:01 ----------
Есть предложение подключить работу программы к сервису SEO-proxy, открыт API. И решится вопрос капчи и не только.
Клиент просто задает условия, а сервис SEO-proxy решает задачу, возвращая готовое решение.
Наши клиенты гарантированно защищены от бана по IP, им не нужно каждые 5 минут вводить вручную код с картинки. Вместо этого они спокойно работают, уделяя максимум времени рабочей деятельности и решению более важных задач.
Пример использования API на языке PHP можно скачать.
Реализацию на других языках можно взять.
http://seo-proxy.ru/
Так что Вы скажите по этому функционалу