Vertigo

Рейтинг
43
Регистрация
22.09.2004
mutex:
Пишите в сапорт должны помочь.

Была както история...
Я необналичил чеки за 6 месяцев после получения.
Сапорт отписал на мое письмо в течении 24х часов:

Действительно ли чеки надо обналичить в течение полугода с момента их выпуска? А то я размышлял в последнее время над этим вопросом, детально изучил чеки и не нашел там каких-либо предупреждений о том, что чек должен быть обналичен в течение такого-то срока. В то же самое время на чеках Linkshare указывается дата, до которой чек должен быть обналичен.

У меня в практике было такое, но я попробовал подождать, и где-то через месяц страница с переоптимизированным заголовком заметно поднялась вверх. Я бы подождал и попробовал "долбить" страницу внешними ссылками - это должно сработать.

ArtGallery:
Настройка цветовой палитры - это встроенная в Adsence функция. Гугл сам ее предлагает участникам для применения. Не понимаю, при чем здесь это:

Я тоже не понимаю. Все изменения по части дизайна блоков, настройке цвета рамки, фона, цвета ссылок - это все не только не противоречит правилам, но и непосредственно предлагается к осуществлению. В этом никаких нарушений точно нет. Только вот в правилах кажется оговаривается, что сайт должен иметь понятную четкую систему навигации. Если рекламные ссылки будут сливаться с меню, то это может быть воспринято как раз как нарушение этого условия.

nilis:
Я специально часть страницы ставил в <iframe>, чтобы гугл ее не индексировал - не получилось... проиндексировал.
После этого запретил индексацию страницы заключенную в <iframe> через robots.txt - все равно съел... теперь не знаю, что и делать.

У меня такая же байда была - несмотря на то, что в файле, загружаемом через iframe, стоял тег <Meta name= "robots" content= "noindex, nofollow">, а в robots.txt этот файл также был запрещен к индексации, и Google и MSN все равно проиндексировали этот файл. Я смог удалить его из индекса Google принудительным образом - через Google automatic removal system - там указываете адрес своего robots.txt, и система в принудительном порядке будет удалять прописанные там файлы/папки из индекса. Так вам и советую поступить. А вот у MSN такого вроде нет, и там я так не смог сделать.

Kevindark, не все источники контента упомянутого типа требуют обязательного сохранения ссылки на первоисточник и оставления текста без изменения.

Вот этот момент по-прежнему у меня вызывает вопросы:

В общем и целом, на основе многих переработанных текстов, с погрешностью довольно заметной, но попытаюсь утверждать, что страница может считаться дубликатом при 30-80% аналогичного контента. Приблизительно эти же нормы (у нижней границы) работают в законодательстве зарубежном по вопросам защиты авторских прав. Там 10-20% практически копипейстнутого текста считается преступлением (опять же, знания почерпнуты из форумов по теме, точно утверждать не берусь).

На счет цифр вопросов нет, но главное - что все-таки рассматривается поисковиком как аналогичный контент - копия текста один к одному, или если в каждое предложение исходного текста включены некоторые изменения - скажем, пара слов каждого предложения заменена на синонимы?

pelvis:
а может все таки ручками и головой поработать? подумайте о пользователях :)

Я думаю обо всех. А если пользователю этой информации мало - пусть больше кликают по гигантским блокам AdSense ;)

Наверное, просто тематика подавляющего числа страниц малоконкурентная, и даже среди американских рекламодателей там мало предложений. Я заметил, что если лепить сразу большие блоки (типа 120x600), а тематика малоконкурентная, то часто такие блоки просто на автомате забиваются социалкой; для эксперимента можно попробовать большие блоки заменить на маленькие (по 2 объявления) и посмотреть результат.

Недавно разместил абсолютно новый сайт, по данной тематике просто море рекламодателей. Так нужная, 100% релевантная реклама появилась моментально сразу после закачки содержимого сайта на сервер. Ну не мог медиапартнерс-бот забежать и проиндексировать все за какую-то одну секунду, которая прошла с момента закачки сайта на хост до момента запуска сайта в броузере. ;) Кстати, многое здесь определяют url'ы конкретных страниц. Если в адресе каждой страницы содержится требуемое ключевое слово, то это лучше одновременно и для ранжирования в результатах поиска, и для более релевантного отображения рекламы AdSense. Думаю, если на сайте 80К страниц, то этот фактор вряд ли был учтен.

Вообще по буржуйским ресурсам сейчас ходит гипотеза (вполне реалистичная), что одно из нововведений Jagger update - проверка кода CSS (possible introduction of CSS Spam filtering).

У меня тоже в первые 2 недели апдейта траф с Google упал в 10 раз; наблюдались известные симптомы - страницы, которые были в выдаче по опр. ключевикам в TOP10, сползли стабильно на 5-ю страницу. Но потом пошел откат - многие страницы вернулись на прежние позиции, трафик заметно увеличился. Но самые трафикогенерирующие страницы остались по-прежнему где-то в районе 50-х мест выдачи по профильным запросам. По сравнению с началом октября сайт недобирает с Google порядка 400 чел. в сутки.

Тогда чтобы отпали сомнения, можно снова добавить тег <strong> и посмотреть, как изменятся позиции, а потом опять убрать - 2 раза совпадения практически не может быть :)

Всего: 242