- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
а с ссылками что делать? с теми, которые поменяем. канонизировать все?
Опять 25. Я ж уже писал, не в ссылках дело. На вашем сайте страниц больше, чем нужно. Зачем плодить ещё столько же? Хотите делать пустую работу, делайте, только не ожидайте, что она принесёт пользу. А навредить этим, вполне реально.
Забегая вперёд, могу рассказать ещё одну "хорошую" новость. Все страницы вашего сайта не попадут в реальный индекс никогда. Допускаю, что пройдёт 5 лет, сайт обрастёт пиаром и трастом, но и в то время, в индексе будет держаться чуть больше страниц, чем просматривается. Учитывая специфику вашего сайта, не думаю, что просматриваться будет больше, чем 3%.
Гугл уже не тот, что был 5 лет назад. Он уже не ставит задачи держать весь интернет в индексе. Теперь он избавляется от страниц, на которые не заходят люди. И то, что пишут на этом форуме некоторые "знающие" люди о уникальном контенте, расходится с действительностью. Гугл выплёвывает из индекса и страницы с уникальным на 100% контентом, если они не посещаются + не имеют достаточного веса.
Если зайти на какой нибудь очень трастовый форум, где в индексе (заявляются) сотни тысяч страниц, добраться до древнего забытого топика, то мы увидим, что этого топика в индексе больше нет.
Здесь дело не в какой-то ошибке, а в специфики алгоритма гугла. Сайт новый, вес маленький, ему не положено иметь столько страниц.
А кому положено? РБК положено? Тогда почему у него 91.25% старниц во вторичном индексе?
Кстати, обратите внимания, в настоящее время в индексе гугла меньше 1K страниц, а число 300K не говорит о количестве страниц находящихся в индексе. Скорей это показатель количества страниц на вашем сайте, о которых известно гуглу.
Интересно, а о чем оно тогда нам кагбе говорит? Сейчас в индексе 384 тыс страниц! И точка. Google эти страницы известны, он их проиндексировал и включил в поисковую базу. Все остальное - Ваши фантазии.
На самом деле, число 300K ставится почти от фонаря. Сколько раз у меня было так, что выводишь молодой сайт на 10K-30K страниц, а гугл показывает, что их там 50K-70K. Подозреваю, что он любит приврать для важности, дескать какой у меня богатый индекс. :)
Уважаемый, похоже что от фонаря данными только Вы оперируете. Вам известно, что одна страница созданная на сайте генерирует порядка 3 второстепенных страниц? Сайт на котором 100 статей будет иметь в индексе под 300 страниц.
Еслиб он заметил, что все страницы ежедневно мусолят десятки разных пользователей, то он оставил бы их в индексе, и принялся индексировать новые.
Гугл уже не тот, что был 5 лет назад. Он уже не ставит задачи держать весь интернет в индексе. Теперь он избавляется от страниц, на которые не заходят люди. И то, что пишут на этом форуме некоторые "знающие" люди о уникальном контенте, расходится с действительностью. Гугл выплёвывает из индекса и страницы с уникальным на 100% контентом, если они не посещаются + не имеют достаточного веса.
Ну вот мы и добрались до откровенной ереси! Уважаемый Nowel, учитывая все сказанное Вами, задам вопрос в лоб - что такое supplemental index results и как с английского переводится слово supplemental?
P.S.
Если зайти на какой нибудь очень трастовый форум, где в индексе (заявляются) сотни тысяч страниц, добраться до древнего забытого топика, то мы увидим, что этого топика в индексе больше нет.
Правда? Вот этот форум достаточно трастовый? Вы же не будете отрицать, что в индексе Google присутствуют страницы датируемые 2002 годом и которые уже лет 6 никто не читал?
Кстати, а как Гугл узнает, посещается ли страница, или нет? Если переход с Гугла - то да, это понятно, как. А если, например, с Яндекса или Yahoo?
Не страшно, если человек заблуждается. Все мы люди, и знания - штука наживная. Печально когда кто-то влазит в тему, в которой сам толком не разбирается, и с умным видом начинает доказывать свою правоту, вводя других в заблуждение. Разумеется, печально это не для него самого, а для тех, кто ему поверит. В общем обманывать людей не хорошо, если нет достаточной полноты знаний, то не нужно утверждать, можно лишь предполагать.
Ну теперь по пунктам... :)
А кому положено? РБК положено? Тогда почему у него 91.25% старниц во вторичном индексе?
По тому, что у него PR8. Этого веса хватает, чтоб держать массу не посещаемых страниц в индексе. Я предположил, что упомянутый ТС сайт не будет иметь такой же траст + пр.
Интересно, а о чем оно тогда нам кагбе говорит? Сейчас в индексе 384 тыс страниц! И точка. Google эти страницы известны, он их проиндексировал и включил в поисковую базу. Все остальное - Ваши фантазии.
Не нужно пытаться рассмешить мою собаку, у неё туго с чувством юмора. Даже если страница включена в основной индекс, и показывается на первом месте по запросу site:домен.com, это ещё не факт, что она включена в поисковую базу, и будет отдаваться в поиске даже по уникальному запросу. Об этом знают даже нубы с юмакса, которые действительно активно практикуют с гуглом, а не ограничивают себя читением чужих статей.
Уважаемый, похоже что от фонаря данными только Вы оперируете. Вам известно, что одна страница созданная на сайте генерирует порядка 3 второстепенных страниц? Сайт на котором 100 статей будет иметь в индексе под 300 страниц.
Мне действительно не известно, что сайты, о которых я упоминал, которые были сгенерированы в html страницы и залиты на хост, заимели по 2 клона на каждую страницу. Кто знает, кто знает, может быть и баб Яга существует. Повторюсь - лично мне об этом ни чего не известно.
Ну вот мы и добрались до откровенной ереси! Уважаемый Nowel, учитывая все сказанное Вами, задам вопрос в лоб - что такое supplemental index results и как с английского переводится слово supplemental?
С английским проблема? Вот ссылка в помощь http://translate.google.ru/translate_t#en|ru|
Не буду вспоминать историю с сораем, на котором что-то написано. Просто лично я сам, давно уже не воспринимаю все надписи в буквальном смысле. Вон, официальный гугл пишет, что не возможно нанести вред сайту внешними факторами. Значит ли это, что не существует фильтров за быстрый набор беков, или за ссылки с линкопомоек?
Правда? Вот этот форум достаточно трастовый? Вы же не будете отрицать, что в индексе Google присутствуют страницы датируемые 2002 годом и которые уже лет 6 никто не читал?
Ну вот ещё :) щас я буду выискивать примеры, чтоб кому-то что-то объяснить. :) У кого голова на плечах есть, тот примит к сведению то, что я написал. Возможно, кому-то это пойдёт на пользу. А те, кто только читают инструкции гугла по оптимизации, да чужие статьи, пусть просвещаются дальше.
А вобще, далеко ходить не нужно за примером. Тот кто плотно работает с сапой, давно сталкивался с тем, что внутреннии страницы сайтов и с дмоза, через некоторое время, уходя в глубину сайта, вываливаются из индекса.
Не стыдно не знать. Стыдно не знания выдавать за знания.
Nowel добавил 17.07.2009 в 16:32
Кстати, а как Гугл узнает, посещается ли страница, или нет? Если переход с Гугла - то да, это понятно, как. А если, например, с Яндекса или Yahoo?
Гугл контролирует более 30% всего интернет трафика только через браузеры (лиса, опера, хром) и свой софт, который люди устанавливают на компьютеры бесплатно (тулбар и прочии примочки). Хотя, цифра 30, думаю, уже устарела. По моему, сейчас уместно уже говорить о 50%. К тому же, наверняка есть у него какие нибудь завязки и в других организациях. Взять к примеру малоизвестный quantcast.com Он не распространяет свой софт, однако, знает о трафике любого посещаемого американского сайта. Не думаю, что у гугла руки короче.
Кстати, а как Гугл узнает, посещается ли страница, или нет? Если переход с Гугла - то да, это понятно, как. А если, например, с Яндекса или Yahoo?
гугл аналитикс (если, конечно, добавлен)
По тому, что у него PR8. Этого веса хватает, чтоб держать массу не посещаемых страниц в индексе. Я предположил, что упомянутый ТС сайт не будет иметь такой же траст + пр.
Так-так-так, минуточку! Теперь в Ваш мифический "фактор посещаемости" прокрались PR и Trust Rank... Страницей ранее Вы утверждали, что в supplemental index попадают страницы не имеющие посетителей, а теперь оказывается, что PR и TR позволяют избавить страницы от ада "соплей". Ну и при чем тогда эта Ваша посещаемость?..
Вы написали:
Сайт новый, вес маленький, ему не положено иметь столько страниц.
Исходя из сказанного делаем вывод - если сайт большой, старый и посещаемый, то у него в первичном индексе будет больше страниц, чем во вторичном. Я вам показал сайт который и очень старый, и очень большой, и очень посещаемый. И я Вам показал, что свыше 90% его страниц находится во вторичном индексе!
Вы мне отвечаете каим-то бредом:
По тому, что у него PR8. Этого веса хватает, чтоб держать массу не посещаемых страниц в индексе.
Я еще раз повторю: не смотря на высокий PR главной страницы, не смотря ни на возраст сайта, ни на его колоссальную посещаемость подавляющая масса страниц РосБизнесКонсалтинга находится во вторичном индексе! Почему? Почему сайт у которого в сутки нескольо миллионов просмотров страниц в большинстве своем в "соплях". Вы утверждаете, что посещаемость сайта гарантирует отсутсвие соплей. Я Вам покзываю очевидное опровержение Вашей теории. Чем Вы её еще подтвердите?
Даже если страница включена в основной индекс, и показывается на первом месте по запросу site:домен.com, это ещё не факт, что она включена в поисковую базу, и будет отдаваться в поиске даже по уникальному запросу. Об этом знают даже нубы с юмакса, которые действительно активно практикуют с гуглом, а не ограничивают себя читением чужих статей.
А давайте теперь поспорим на миллион долларов, что даже если страница включена во вторичный индекс, то по уникальному запросу (как для этого сайта, так и для Сети в целом) Google выдаст её в serp! И для того, чтобы это понимать не нужно быть нюбом-эмигрантом с умакса, который начитался бредо-постов дорвейшиков, вместо того, чтобы учить матчасть.
Мне действительно не известно, что сайты, о которых я упоминал, которые были сгенерированы в html страницы и залиты на хост, заимели по 2 клона на каждую страницу.
20 статей -> разбиваем на две категории -> на страницах категорий выводим по 2 статьи -> получаем в индексе 30 страниц. И это без учета остальной технической лабуды.
Кто знает, кто знает, может быть и баб Яга существует. Повторюсь - лично мне об этом ни чего не известно.
Дорогой мой дорвейщик! Если всю ночь только и делать что клепать дорвеи, то под утро не то что Баба Яга, сам Платон Щукин станет реальностью! Так что завязывайте пока не поздно с дорвеями под англоязычный фарматраф.
Значит ли это, что не существует фильтров за быстрый набор беков, или за ссылки с линкопомоек?
Если Вы под быстрым набором подразумевает 1000 ссылок в день, тогда ответ - да, не существует.
Ну вот ещё :) щас я буду выискивать примеры, чтоб кому-то что-то объяснить. :) У кого голова на плечах есть, тот примит к сведению то, что я написал. Возможно, кому-то это пойдёт на пользу. А те, кто только читают инструкции гугла по оптимизации, да чужие статьи, пусть просвещаются дальше.
Мы обязательно прекратим читать глупые статьи глупых отцов-основателей SEO, откажемся от подписок на блогах Google и больше никогда и никого не будем слушать! Даешь народу гениальные теории нового светоча русской оптимизации, тру сеошника Nowel-а! тИЦ - дорвеям, PR - фарме, мегапосещалку - говноблогам! Уряаааа, товарисчи!
А вобще, далеко ходить не нужно за примером. Тот кто плотно работает с сапой, давно сталкивался с тем, что внутреннии страницы сайтов и с дмоза, через некоторое время, уходя в глубину сайта, вываливаются из индекса.
Я с сайтами работал, когда для Вас они были не более чем источником бесплатной порнухи. И могу со всей уверенностью сказать, что все это, написаное Вами в этой теме, - Ваши личные фантазии!
Google плевать хотел на посещаемость сайта. Если страница содержит уникальный материал, не дублируется на сайте, на неё ведет достаточное количество ссылок с других страниц сайта и из-за его пределов, то основной индекс её гарантирован!
to makabra
У меня сложилось мнение, что я говорю со школьником, который не то что думать, даже читать не умеет (во всяком случае мои предыдущие посты). Вести дальнейшую дискуссию мне уже не интересно. Продолжайте думать что вы в чём то разбираетесь, мне от этого не холодно. Вести спор с детьми или с неадекватно воспринимающими действительность - тратить время впустую.