богоносец

богоносец
Рейтинг
775
Регистрация
30.01.2007
sssss:
Получается так - уникальный контент мы не индексируем, потому что есть дополнительные факторы, а если у вас украли контент, но факторов нет - можно индексировать на чужих сайтах. Данной фразой Яндекс декларирует то, что он и не собирается учить свои алгоритмы определению первоисточников.

Да, ГС с соблюдением всех формальностей я.лицензии будет в индексе и в топе, а первоисточнику будут слать отписки.

Да может попасть в индекс и долго там быть. А в тайтл можете слов 30-50 написать, только не перечисление запросов, а человеческие фразы со словами запросов. Трафф будет именно какой-нибудь.

Как воспринимает Яндекс ленты RSS, что это для него - отдельная страница с отдельным URL

Да, отдельная. Даже кэш RSS умеет показывать.

301

inurl:rss.xml > http://help.yandex.ru/school/rss.xml редиректит, наверное давно уже, а вот и кэш.

В роботсе закрывайте /index.php?format=feed или как там они начинаются, и несите в http://webmaster.yandex.ru/delurl.xml каждый урл... и смотрите что ответит.

бот Щукин:
решение о включении страниц сайта в поисковую выдачу принимается на основании совокупности факторов, описанных в документах:
webmaster.ya.ru/replies.xml?item_no=3772
Уникальность контента - не единственный критерий

... и что можно сказать о деятельности этих алгоритмов, если им в любом скрипте видится webmaster.ya.ru/replies.xml?item_no=3772

Писали простые ребята? Или такая параноидальная забота о пользователе?

sssss:
После того как доказал , что контент - первоисточник получил вот такую весть.

А смотрят ли они на это доказательство?

Я.слив:
Если человек действительно сам создал свой сайт, если он дорожит этим сайтом и готов бороться за него, то любые позитивные усилия с его стороны не останутся незамеченными. Если уж он смог создать контент такого качества, что его воруют, ничто не мешает ему продолжить совершенствовать свой сайт, создавать и дальше полезный контент, так что динамика его развития по сравнению с клонами станет очевидной. В ранжировании используются сотни факторов и усилия по развитию сайта не останутся незамеченными.

Ваш сайт может даже догнать копипастеров и рерайтеров!

А если вы беспокоитесь о видимости в поисковике — это значит вы делали сайт для ботов?

Хотя такие их соображения как бы вдохновляют на развитие в сторону: яндексоиды *****

leobat:
Остальным урок, приводим свои ГСы в порядок и светим их как можно меньше.

Вот как раз их светить и не страшно, сам же Яндекс это делает в своей выдаче, и редко чего им грозит. А то, что убиваются сайты, на контент которых когда-то ушло много времени — в долговременном плане выйдет Яндексу боком.

Kamchess:
Ладно бы сайт ссылками торговал или статьями в больших количествах. Ну, или копипаст на нём один был. Я бы ещё понял за что АГС.

А не важно сколько сцылок, проданы они или на свои сайты... для ихнего алгоритма — один из признаков типа есть.

В прошлом году выкинули из индекса сайтик за появление в разметке по нескольку onClick на страницу... и прислали в ответе webmaster.ya.ru/replies.xml?item_no=3772 webmaster.ya.ru/replies.xml?item_no=325 т.е. вылет был за совокупность подозрений. Тогда после всего лишь трёх писем вернули.

arkadiy_a:
Сайт выглядит как MFA: H1/2/3 теги отсутствуют

Лучше всего держатся в индексе сайты для роботов — с любым переспамом, любыми тегами.

medea:
Сам сейчас в похожей ситуации (белый сайт под АГС), веду переписку с П, но пока без толку.

Там проблема в количестве таких случаев. Их фильтровалка спама не может различать спам с ошибкой менее 3%, судя по % явного спама в выдаче по ашмановскому анализатору. Так что сопоставимый % белых и пушистых попадает под каток. Сколько человеко-времени понадобилось бы для разбора этих ошибок? Им проще не считать это ошибками, да они и не обещали индексировать всех. А вообще, у них несколько другие задачи, и свои фильтры они настраивают не для того, чтобы результат соответствовал их же лицензии — это типа интерфейса с вебмастерами, которым доверять ну никак нельзя.

wir:
ранжируют на 1-е места, а потом отправляют под агс, бред по-русски

технофашизм в головах ИТ-либералов

Medvedeva:
стоит ли на каждой странице сайта ключевые слова вверху помешать в тег h1 ??? много пользы будет ?? пока сайт не запущен

Формулировку полезнее сделать так, чтобы посетителю сразу было понятно, куда он попал / об чём эта конкретная страница.

Могли ли из за метрики забанить сайт?
бот Щукин:
Решение об исключении страниц из поиска принимается алгоритмами в результате анализа совокупности многих факторов.

А белым и пушистым придётся смотреть: нет ли случайно метрики на том сайте, на который ссылаешься.js

И всякие подозрительные фичи типа блок «поделиться» не ставить, если всё хорошо. Месяца 3 назад сам счёл бы это паранойей, но похоже, что она давно есть у борцов со спамом.

loot:
заметьте, страница с размещенными фреймами не кешируется

А сделайте файл.html с <frameset> ... и добавьте в него html шапки от ПС, как они это делают.

Браузер такое показывать не обязан. И это просто глупость - Сохраненная копия - под сниппетом. А ПС в кэше и в .xml свою шапку пихали...

Сайтег на акуймах.

... в Я.сниппете видел текст, который из файла, указанного во фрейме, но не покажу. Ссылка из выдачи вела на документ, который не <body> с <iframe> а <frameset> ... это не одно и то же.

<html>

<head>
<title>...</title>
<meta name="description" content="...">
</head>
<frameset framespacing="1" cols="28%,*">
<frame name="leftFrame1" src="menu-links.htm" target="mainFrame1">
<frame name="mainFrame1" src="Content.htm">
<noframes>
<body>
<h2>Без фреймов не работает!</h2>
</body>
</noframes>
</frameset>
</html>
Sower:
и подгружал фреймом блок, где тошнит от ключей

Ну в скрипты это завернуть слегка... только не тупо в document.write а функцию какую...

Тегов <h1> может быть более 10. Спросите у Яндекса... и посмотрите в код демки, написанной после подобной темы месяцев 15 назад.

Всяких <h2>...<h6> и <p> можно не употреблять.

Не забываем повтор запроса в урле, на иконке :) и в тайтле (в читабельных фразах).

Когда вы стеснительно соображаете: 1 или 2 АшОдына?.. то с т.з. матрикснета ваша страница с бОльшей вероятностью оказывается похожей на большинство других. А когда в ней что-то самое обычное запредельно зашкаливает, то ... совсем не обязательно это спам, просто её может типа не получиться так же просто классифицировать.

Е.ОСЕТИСНКАЯ: ... если искать что-то более сложное по экономике или по медицине... там будет еще по медицине какой-нибудь «Mail.lady.ry», и там будет полная ерунда
И.СЕГАЛОВИЧ: ... выделить истинный, качественный, хороший авторский контент трудно по одной простой причине – для того, чтобы его выделить, надо, чтобы люди, которые смотрят на него, оценивают его, они хорошо в нем разбирались. Это просто очень дорого сделать.
zagred:
Похоже, тетка поисковик с энциклопедией перепутала.

Тётка, даже не разбираясь в теме, может легко отличить некачественный контент... а программер так говорит, что становится понятно, что и отдалённой задачи такой перед собой не ставит.

platon-777:
После IPO я думаю денег достаточно появилось у Яндекса.

У массового сервиса есть предрасположенность в сторону всего популярного... не требующего существенных вложений. Это обстоятельство и побеждает.

anthony_:
Если при анализе страниц поисковые анализаторы определят, что большинство из этих страниц спамные

Это слишком человеческий язык.

Решительным и определяющим является то, какую ВЫ деятельность ведете с сайтом.

Определяющим окажется НЕ ваша деятельность... а то, как она увидится простецким таким алгоритмам. Уже два примера имею без продажных сцылок, и на незначительных сайтах пробую повторить ту же последовательность действий, протоколируя их...

... раньше (на человеческом языке) померещилось:

  • Сайты выкидываются из индекса по подозрению.
  • Важна сумма или некая комбинация подозрений.
  • Автоматические подозрения возникают по совсем примитивным признакам, поэтому их и не получается сформулировать.
  • Фильтр работает не быстро, могут пройти месяцы... поэтому, если действий было несколько, не получается угадать, что именно привело к превышению некоторого предела.
Всего: 13653