+ 1
Аол использует выдачу гугла, которую он отдаёт на американский ip. Единственное различие, гугл использует все сайты индекса, а аол только те, которые как бы не в соплях. Всё, о чём говорят убеждённые сторонники теории соплей, для аола как раз актуально.
Где-то слышал (читал вернее), что один и тот же сайт подавали 2 раза подряд на участие в адсенсе. Первый раз не приняли, через пару месяцев опять отправили заявку на него. Со второго захода сайт приняли. После первого раза на сайте ни чего не менялось.
Не могу утверждать что этот случай действительно имел место быть, но в принципе, можно допустить, при первом посещении загрузилась сомнительная реклама на сайт, его забраковали, а второй раз, реклама была по проще, его и взяли.
Моё понятие нормы весьма субъективное. Ориентируюсь примерно на эти данные. Если не ниже, значит белый. :)
Гугл не рассматривает каждый сайт по отдельности. Есть формула, у которой есть погрешность. У так называемых саппортов из команды по борьбе со спамом не такие и серьёзные полномочия. Они могут править только то, что сами нахимичили. К работе алгоритма этих людей не подпускают.
К сожалению, далеко не всегда это происходит в скором времени. Как-то на сервере что-то глюкнуло, php скрипты скривило и перестали отдаваться практически все внутреннии ссылки. Да и контент весь в ошибках пошёл. Заметил часов через 15 после сбоя. Поправил, а поздно. Где-то через час, после устранения ошибок, сайт улетел в тартарары. То, что бот сразу увидел кривизну, не удивительно. Он качал с того сайта по странице каждые 2-3 секунды. Видать подумал, что я на домен другой сайт залил, и фильтранул. Больше 2 месяцев держал.
Ну и пользы в разы меньше с такой перелинковки.
Лично у меня плотность давали анкоры внутренних ссылок, коих на странице более 50.
Тоже подозреваю, что сейчас за плотную перелинковку между доменами наказывать стали. Месяц назад все сайты (кроме одного) по одной тематике за 1 день просели в несколько раз. Сами сайты не были копиями, контент разный, но каждая страница каждого сайта ссылалась на 2-3 страницы других доменов. Встречных ссылок не было. Перелинковка стояла как лабиринт для бота.
Не фантан, но в пределах нормы.
У меня многие сайты с плотностью выше 10% повылетали за последние пару месяцев. Может быть дело не в этом, но полностью я бы не исключал этот показатель.
Я имел ввиду внешние ссылки не на самом сайте, а на страницах, где беки.
Звучит как шутка. :)
Вряд ли такая постановка вопроса даст положительный результат.
Sower добавил 23.05.2011 в 08:38
Я так понимаю, что фильтры разные бывают. Одни накладываются с участием команды "по борьбе со спамом", другие на полном автомате.