- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
После составления семантического ядра(около 40-ка запросов), столкнулся с отбором из этих заросов тех, по которым пройти в TOP будет проще всего. Уже на стадии анализа конкурирующих страниц, столкнулся с проблемой обработки и анализа достаточно больших объемов информации - родилась идея создать специальню БД и приложение для обработки статистики страниц в выдаче по запросам.
Например, такая прога могла бы делать такое:
1 .вычисляет средние внутренние (PR/ИЦ,% частоты слова в тексет, вхождения в title и т.д.) и внешние(кол-во ссылок,крупнейшие каталоги) параметры странцы/сайта для диапазона позиций по заданному вопроса.
2. рассчитывать по некоторой формуле "уровень оптимизированности под запрос/ролевантность" сайтов-конкурентов исходя из указанных выше данных.
3. исходя из частотности и "уровня оптимизированности по запрос" определять наиболее подходящие для продвижения запросы
Интересует вот в что:
1. Нас, программистов - хлебом не корми, дай покодить:) Будет ли такое приложение достаточно полезным, или вполне достаточно примерной оценки "на глаз" ?
2. Существует ли что-то подобное?
есть аналогичные программы , которые примерно то самое и анализируют semonitor , netpromoter. Они собирают ключевики, считают частоты, вхождение в мета. Уже другой модуль программ считает внешние параметры.
п.2, 3 делать автоматом - это из области экспертных оценок... У опытного оптимизатора глаз оценивает будь здоров
p.s. уровень оптимизированности под запрос/релевантность" сайтов-конкурентов - ,большую роль тут будут играть внешние факторы. конкуренты-то в основном умеют оптимизировать страницы
р.р.s - у внутренних страниц тиц а Не бывает - это характеристика сайта
vlkff, наиболее важные данные - внешнее ссылочное и передаваемый этими ссылками вес. Ни первое, ни тем более второе получить не реально технически, так что расчитать таким образом не выйдет. Да и не совсем понятно, что Вы имеете ввиду под "наиболее подходящим запросом"?
Yazzle вам в помощь даже реферальную ссылку не вставил
Самое важное отличие третьей версии программы от остальных – возможность сохранения истории проекта в файл .....
G00DMAN, "наиболее подходящий запрос" - запрос, с хорошим соотношением конкуренция/частота.
Понятно, что точности в оптимизации давно нет, особенно по внешним факторам, и оценить что-либо точно невозможно, но можно сопоставить общее количество ссылок и степень оптимизации страницы по слову - логично предположить, что чем больше вес слова на странице, тем больше на эту страницу оптимизатор поставил ссылок с анкором этого слова.
sasa84, semonitor знаю и пользуюсь. Беда в в нем, и во всех программах сбора данных такая, что он лишь СОБИРАЕТ РАЗРОЗНЕННЫЕ данные. Речь же идет о целостном хранении и обработке.
С другой стороны, возможно я переоцениваю глубину и важность оценки конкуренции..
Как я представляю себе данный процесс:
У меня 40 запросов, 28 конкурентов по ним. Беру каждый запрос, смотрю на выдачу, беру страницы 1, 5, и 10 позиции (задача - выйти в top10 ), собираю доступные данные о страницах данные.
Для одной ПС, это:
40 сеансов ручного анализа выдачи, отбор страниц-конкурентов для анализа.
40 сеансов анализа блоков страниц(по 3),
40 операций ввода блоков полученных данных в сводную таблицу, сопоставление данных с запросом и вычисление средних параметров
Это анализ полученной статистики - отбор списка наименее конкурентных запросов, обеспечивающих нужную суммарную частоту.
Если делать это все без БД, пользуясь таблицами, (excel, например) - получается большой массив данных, не поддающийся автоматической обработке.
vlkff добавил 08.06.2008 в 14:26
Diplomat, Yazzle выполняет анализ текста страниц?
Diplomat, Yazzle выполняет анализ текста страниц?
vlkff, выполняет.
Понятно, что точности в оптимизации давно нет, особенно по внешним факторам, и оценить что-либо точно невозможно, но можно сопоставить общее количество ссылок и степень оптимизации страницы по слову - логично предположить, что чем больше вес слова на странице, тем больше на эту страницу оптимизатор поставил ссылок с анкором этого слова.
или вполне достаточно примерной оценки "на глаз" ?
Если кто на глаз не способен, есть сервис Константина Каширина http://www.ccla.ru/service/