- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Пессимизация - миф о загробной жизни, и кто туда попал - никогда не возвращается? Или все-таки можно вернуться?
Сайт исчез из выдачи по однословному высокочастотнику (я таки переборщил по нему с плотностью), а по двухсловным, содержащим это же слово - что интересно - стоит как стоял (тьфу, тьфу, тьфу). Как они это делают? Это алгоритм (только не пишите "читай патент") или редакторы вручную?
Тут на днях человек страдал про "бан по конкретному запросу", а ему отвечали, что чушь, мол, банят или весь домен или ничего - так, наверное, у него что-то подобное было...
Давайте разберемся, что есть пессимизация? Итак, есть алгоритм. В нем есть оптимальное сочетание показателей (входных данных), приводящее к экстремуму. Недобор, перебор - получается хуже. При чем тут бан? Вы же не кричали о пессимизации, когда еще не достигли результата. Был недобор. Теперь, по всей видимости, перебор. Всё просто.
Да про бан - небан все понятно ;), спасибо. Если действительно все именно так просто, это радует, с одной стороны. Но вот как тогда получается - это самое слово, которое часто встречается в двусловном запросе, само по себе и использовать нельзя, т.к. он его считает во всех видах... Уменьшить плотность двухсловных - понизишься по ним, а не пользоваться самим по себе словом - осмысленность контента страдает...
Впрочем, это я уже, собственно, не по теме, а о тяжелой жизни оптимизаторов.:)
Это алгоритм. Верните все в зад и ждите, месяц или пять. :(
Вот все-таки интересно понять насчет этого самого алгоритма. Конкретная ситуация: англоязычный сайт, имеется фраза, многократно осмысленно повторяющаяся в тексте страницы
"слово1-слово2-слово3-слово4".
Из них ключевиками являются:
слово2 (ок. 700 000/мес по вордтрекеру)
слово1-слово2 (ок. 60 000)
слово2-слово3-слово4 (ок.50 000)
Каждый из ключевиков нередко встречается в тексте и сам по себе.
Выдача интересует по всем трем запросам. Так вот вопрос: как Гугл будет считать плотность по каждому? Эта фраза из 4 слов каждый раз, встречаясь в тексте, будет добавлять количество всех трех ключевиков? Если нет - то к кому будет добавлять? И, опять же если нет - можно ли рассчитывать, что Гугл в длинной фразе будет вычленять несколько коротких (не однословных)?
См.
wolf, я напряг весь свой ум, пытаясь понять, и если я правильно понял из этого Вашего поста, заранее понять невозможно, как он будет расчленять фразу? Будет ли он многократно использовать составные части фразы?
Заранее понять невозможно, по какой части текста будет расчитываться концентрация
Заранее понять невозможно, по какой части текста будет расчитываться концентрация
тогда, значит, невозможно и понять, будет ли перебор по ключевику и, соответственно, пессимизация... Вот и начинаешь думать, а не делать ли, в самом деле, сайты для людей а не для пауков? :)
Золотые слова!
И проверенные на практике.