- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
если думать логически и по-человечески, то по-моему сугубо личному мнению, песка можно избежать благодаря уникальному контенту. ведь если подумать, гугл стремится к тому, чтобы человек ищя в нём находил то, что нужно. если человек приходит и ищет допустим инфу по самолёту ил-76 и хочет его купить, то гугле было бы глупо прятать от него такую инфу, если она есть на запесоченном сайте. так вот моё имхо таково, что избежать можно песок, если ваш сайт действительно достоен этого. уникальный, осмысленный и нужный контент. ну а бэки никто не отменял конечно.
основано на реальных событиях
нужны ссылки с так называемых trusted сайтов..., (причем pr у сайта уже не явлеятся его показателем при подсчитывании ранга доверия) чем больше тем лучше...
Получается, что google годами совершенствовал алгоритмы и саму идею с PR, а тут вдруг взял и, грубо говоря, отказался от неё "... pr у сайта уже не явлеятся его показателем при подсчитывании ранга доверия"... противоречиво получается, НО...
Не буду спорить, я могу чего-то не понимать (пока не понимать :) ), просто приму к сведению.
если думать логически и по-человечески, то по-моему сугубо личному мнению, песка можно избежать благодаря уникальному контенту. ведь если подумать, гугл стремится к тому, чтобы человек ищя в нём находил то, что нужно. если человек приходит и ищет допустим инфу по самолёту ил-76 и хочет его купить, то гугле было бы глупо прятать от него такую инфу, если она есть на запесоченном сайте. так вот моё имхо таково, что избежать можно песок, если ваш сайт действительно достоен этого. уникальный, осмысленный и нужный контент. ну а бэки никто не отменял конечно.
основано на реальных событиях
эх ... если-бы ... :)
мы бы уж постарались ... :)
greenwood, может мне просто повезло? ;)
тьфу тьфу тьфу
Получается, что google годами совершенствовал алгоритмы и саму идею с PR, а тут вдруг взял и, грубо говоря, отказался от неё "... pr у сайта уже не явлеятся его показателем при подсчитывании ранга доверия"... противоречиво получается, НО...
ты прав
и доверие все так-же производное от pr, но просто всё стало сложнее ... хотя всё еще в рамках принципа PR
greenwood, может мне просто повезло?
вряд-ли ...
просто ты взял конечный результат не проанализировав истоки :)
Интересно а как гугля ведет себя в тех случаях, когда сайт создан в двух вариантах - английский и русский?
Если английская версия сайта лежит в одной директории, а русская в другой?
P.S. Может если на сайте созданном под русско-английскую аудиторию, русского контента в процентном соотношении будет больше чем англоязычного, сайт избежит песка????: 🚬
люди добрые поскажите хто хоть за последние пол года попал в Dmoz? (последние месяца 2 уже там сабмит вообще не работает, т.к. сами редакторы якобы не могут залогиниться)
Я попал. Главной страницей года два назад. Потом отдельный раздел сайта включили по моей заявке, а еще один раздел сами, без меня. Последние два случая где-то как раз в последние полгода.
если думать логически и по-человечески, то по-моему сугубо личному мнению, песка можно избежать благодаря уникальному контенту. ведь если подумать, гугл стремится к тому, чтобы человек ищя в нём находил то, что нужно. если человек приходит и ищет допустим инфу по самолёту ил-76 и хочет его купить, то гугле было бы глупо прятать от него такую инфу, если она есть на запесоченном сайте. так вот моё имхо таково, что избежать можно песок, если ваш сайт действительно достоен этого. уникальный, осмысленный и нужный контент. ну а бэки никто не отменял конечно.
основано на реальных событиях
Точно - песок накладывается не на сам сайт, а на его место в выдаче по тому или иному запросу.
оптимизировав сайт под запрос "ksjgksjbfvlwkmnfd" вы никогда в песок не попадете
и всегда будете городо красоваться на первом месте у тех кто ищет "ksjgksjbfvlwkmnfd"
оптимизировав сайт под запрос "ksjgksjbfvlwkmnfd" вы никогда в песок не попадете и всегда будете городо красоваться на первом месте у тех кто ищет "ksjgksjbfvlwkmnfd"
А по запросу "personal injury lawyers" не вылезите из него и за год!