- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Второе очень просто задорвеить. Слишком стремно, на мой взгляд.
Инет за месяц захлебнется от сайтов с сотнями тысяч страниц, если пойти по такому принципу.
Это смотря что и сколько они смогут рассказать о своем товаре...
А уж выделить поиск энциклопедий, словарей etc - IMHO несложно
-=Илья=-, ну что не пост - то глубокомысленная загадка... Объясни для тупых, pls, доступно (вот для меня, например)
Вот и я говорю - надо искать принципы более глубокого анализа контента страницы... И идея Avelon по поводу анализа сайта вцелом на соответствие запросу - на мой взгляд справедлива
-=Илья=-, ну что не пост - то глубокомысленная загадка... Объясни для тупых, pls, доступно (вот для меня, например)
Если бы Вы чаще пытались бы понять процесс сами, то достигли бы просветления гораздо раньше.
Текстовые характеристики страницы, такие как плотность, имеют границы. Плотность не может быть выше 100%, даже не учитывая того, что идеальную плотность приходится ограничивать в районе 3-7%.
Ссылочные же характеристики ограничений не имеют. 10 ссылок лучше чем одна, 100 лучше чем 10, 1000 лучше чем 100. И искусственное ограничение "идеальным количеством" не помогает, а наоборот, убирает из десятки сайты достигшие лидерства естественным путём, так как у них как правило очень большой отрыв от конкурентов по количеству ссылок.
И вот если есть параметр, по которому можно просто тупо и однотипно "долбить", то долбить будут. Придавая ему меньшую или большую значимость делаешь процесс накрутки более или менее затратным. Но крутить будут, пока параметр имеет хоть какое-то значение.
И не важно, что это будет за параметр. Ссылки, посещаемость, количество страниц... А без такого параметра ещё хуже.
хуже не будет
Учусь, пытаюсь...
Спасибо за пояснения (это без ехидства)
Пока есть законы - их будут пытаться обходить
Тем не менее, с законами лучше, чем без оных
Но вышесказанное не означает, что не надо пытаться эти законы улучшить, а то, что над этими улучшениями "бьются лучшие умы" - не значит, что вы или я (без ложной скромности) не сможем предложить принцип таких улучшений.
Не вопрос. Надо улучшать. Но с другой стороны. Ссылки чем ни заменяй, накручивать будут. Это же процесс мимикрии, а мимикрировать можно подо всё что угодно. Сайты изменяются быстрее тараканов, а тех до сих пор не попывели.
Пусть накручивают контентом - всем будет лучше ))
Это если ранг по контенту с умным анализом (конечно, общие слова, сам понимаю...)
Контент, накрутка контентом, контент для моего любимого яндекса - это лучшее, что можно предложить! Контентные справки и прочие условные обозначения контента - это хорошо. Положительное воприятие контента - отлично? Да! Контентная накрутка хороша есть. Робот поймёт, вопримет, полюбит. Да здравствует контент.
Так чтоли?