- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Скажите, есть ли возможность "отсева лишнего" при проверки аналогичной статьи у конкурента.
Ведь в статье идут дополнительные ссылки перелинковки, похожих статей, оглавление самой статьи, примеры на видео, контекстная реклама и много дополнительных аспектов внутренней оптимизации. Мне проверять тошноту с учетом всех этих элементов или только текст статьи, который мне выдирать по абзацам в ручном режиме?
Есть ли сервисы, где они сами выделяют и проверяют исключительно индексируемый материал указанной страницы?
Заняться больше нечем как 700 статей просматривать? Нужно было изначально не спамить(спасибо кэпу). Траф идет на статьи? Тогда нафиг оно надо?
В мегаиндексе можно проверить по разным параметрам, например релевантность. Так как 100% релевантности довольно таки трудно добиться, то можно уверенно предположить, что автор страницы заоптимизировал её))
Мне проверять тошноту с учетом всех этих элементов или только текст статьи, который мне выдирать по абзацам в ручном режиме?
Есть такой браузер Lynx - установите его, чтобы понять, как видит страницу поисковая система.
Конечно же все элементы учитываются.
Закажите скрипт - простейший, который почистит от тегов и будет выдирать текст между определенными тегами. Затем второй скрипт, который автоматом проверит тексты на тошноту. Все это на пару дней работы и пару тысяч денег. Было бы желание.
Ну или посмотрите программу Content Downloader - позволяет выдирать тексты, чистить их.
Заняться больше нечем как 700 статей просматривать? Нужно было изначально не спамить(спасибо кэпу). Траф идет на статьи? Тогда нафиг оно надо?
Именно на статьи. Есть такая тенденция - алгоритмы меняются и мы проводим работу согласно новшеств (пусть это уже не новшества, но работало же раньше).
Смотрите по ТОП-10. Если вхождение у конкурентов приблизительно 10, то и вы делайте 10, или даже девять, качественно оформляйте страницу и сам текст, делайте все для людей. ПС оценят.
R34-zevs, Воспользуйся истио http://istio.com/rus/text/analyz/ , показывает тошноту твоего текста, количество наиболее частых ключей. Вставь текст (основной текст страницы, без всяких хлебных крох и меню), жмакай кнопку анализировать сайт. Появляется сводная информационная таблица , смотри строку "тошнота", там указан процент. Я рекомендую добивать его до 4 максимум. Расскажу как это сделать.
Дальше смотри ниже таблицу, в ней показано какие слова сколько раз встречаются в тексте. Режь самые верхние до того состояния, чтобы они были на 1 меньше "нормальных" слов или употреблены столько же.
Например, страница "фрезерные станки", тут сразу ясно какие у тебя ключевые слова. В таблице показано, что слово "фрезерный" у тебя встречается 25 раз, "станок" - 18, а "металл" - 8. Сделай так, чтобы ключ "фрезерный" и "станок" употреблялись 8 или 7 раз. Когда удалишь их, проверь еще раз на тошноту, чтобы было около 4 или меньше.
Кейс проверен годами экспериментов)
Есть один идиотский косяк у Яндекса. Были случаи, когда на меня накладывали санкции за переспам союза "и" :) Посмотри, чтобы у тебя он тоже не был в 1,5-2 раза чаще остальных слов)