У Вас гугл индексирует весь сайт, а не только раздел Эротика.
Вот прув: http://www.google.ru/search?q=kinotop.tv&hl=ru
У Вас же вопрос по индексации сайта, а не про ранжирование.
Текст точно уникальный на сайте? Не рерайт? Даже тот, который закрыт роботсом.
Тут даже ссылочная масса не поможет.
Я так недавно при начале продвижения -200 получил. После переписи всех текстов ТОП10 - ТОП20.
С рерайтом или не уникальности текста в конкурентной тематике даже с хорошей ссылочной массой делать нечего В НАЧАЛЕ ПРОДВИЖЕНИЯ.
Да, конечно, потом когда сайт будет трастовый можно поизголяться попробовать, в начале пути в гугле только уникальный текст. Это наблюдения.
Я пишу (всмысле движок на автомате генерит) description для каждой страницы и он становится снипетом в гугле. Чего и Вам советую.
Поговаривают, что Евросоюз санкции Яндкесу на ссылки ввел. Как отобьются, так учтут ссылки :)
Исследования показывают (запрещаем в роботс и далее глазами смотрим логи вэб-сервера), что подлый гуглбот все-таки скачивает страницы, которые запрещены в роботс и даже анализирует их (если у Вас запрещено в роботс куча не уиникального контента, то гугл бот это увидит), но в индекс не размещает.
Т.е. вы должны быть готовы к тому, что то, что закрыто в роботсе гугл все равно скачает и проанизирует, но в индекс не засунет.
Если взять любой сайт, абсолютно любой и сделать дизаллов в роботс, то гугл бот все равно походит по страницам любого домена, любого сайта (которые в дизаллов), т.е. выкачает их, но в индекс не засунет.
Самое забавное, что если там не уникальный контент, то гугл это учтет, т.е. запред в роботсе не гарантирует то, что гугл не будет сканировать документы, а лишь дает гарантию, что не засунет в индекс.
Эксперименты показывают, что Яндекс делает так же. Из-за этой хрени я недавно набрал очень много седых волос =)
easywind, так для любого сайта :) Если в роботс закрыть от сканирования страницы, наглый гуглбот все равно ходит по этим страницам, т.е. скачивает их, но в индекс они не попадают :) Я регулярно логи глазами смотрю через свою программу. которая показывает что делал робот на сайте.
Я поэтому и написал, что запрет страницы в роботс для гугла запрещат только индексацию страницы, но никак не скачивание ее ботом.
вот здесь:
126-ой фактор ранжирования
вообще ссылка для гугла считается за одну в этом случае, но не совсем понятно - сквознвные ссылки считаются за одну при одном анкоре только или даже если все анкоры разные.
Посмотрите видео в ютубе по ссылке.
Недавно наблюдал за конкурентом. Не проврял, но судя по всему сделали так:
добавили адрес + телефон в Казахстане. Адрес виден через Яндекс.Карты. Скорее всего с телефона стоит переадресация на другой номер.
Таким образом получили еще рег привязку к Казахстану.
Я понимаю, что выдача в браузере отличается от XML :) Я просто не могу понять как ВЧ позиции могут сказать через каждые 3 минуты с 17 по 29 через XML ? Речь идет именно про скачики через каждые 3 минуты. Как по амплитуде.
Как писал выше, на серпе все статично, скачки именно в XML. Фигня какая-то.---------- Добавлено 17.09.2014 в 00:46 ----------
Да, браузер это браузер. Но я хочу понять почему скачки в XML.