2701981

Рейтинг
10
Регистрация
03.07.2009
2701981:
Знающие люди подскажите, Гугл не правильно определяет релевантные страницы.

URL: kinozal.me

Вот пример:

http://www.google.ru/search?hl=ru&ne...=&oq=&gs_rfai=

Если добавить слово "скачать" то получается полная ерунда, на первом месте главная а нужной страницы вообще нет.

Спустя несколько дней страница может даже по основному запросу исчезнуть из результатов…

Что в данной ситуации нужно изменить?
Очень нужна помощь. Заранее спасибо.

Вот уже по этому запросу страницы в выдаче нет....

Знающие люди подскажите, Гугл не правильно определяет релевантные страницы.

URL: kinozal.me

Вот пример:

http://www.google.ru/search?hl=ru&newwindow=1&q=site%3Akinozal.me+%D1%82%D1%80%D0%BE%D0%BD+%D0%BD%D0%B0%D1%81%D0%BB%D0%B5%D0%B4%D0%B8%D0%B5&aq=f&aqi=&aql=&oq=&gs_rfai=

Если добавить слово "скачать" то получается полная ерунда, на первом месте главная а нужной страницы вообще нет.

Спустя несколько дней страница может даже по основному запросу исчезнуть из результатов…

Что в данной ситуации нужно изменить?

Очень нужна помощь. Заранее спасибо.

Уважаемые Willie и Надежда хочу спросить у вас следующие.

Как вы можете объяснить феномен варезников и кино-архивов?

Ведь по всем правилам поисковиков подобные сайты должны быть далеко в выдаче, уникальность текстов на них очень низкая и достигает 70-80%, но несмотря на все это они собирают приличный трафик и это относится не только к старым но и к новым сайтам.

Получается, что и любой другой сайт с не уникальным текстом можно эффективно продвинуть в ТОП, если знать какие способы используют варезники.

Так ли это?

Willie:
1. Как появились? Директория закрывается /имя_директории/, то есть, со слешом в конце.

2. Как убрать? Это сложнее. Вам надо, чтобы директория:
- отдавала ошибку 404;
- была перекрыта в РОБОТСе.
Тогда Вы сможете удалить ее из WMT.

Я проверял эти ссылки в WMT так он выдал что они заблокированы файлом robots.txt

Странно...

Willie спасибо за ответ.

В сниппете выводит нормальный DESCRIPTION.

Есть еще непонятная ситуация. В основном индексе только 18 нормальных страниц, но сейчас не про это, а все остальные:

Site.ru/page/340/?p=zysednnc

Site.ru /2009/07/page/285/%3C?php%20the_permalink();%20?%3E

И всякие подобные, таких около 540.

В robots.txt подобные страницы закрыты

Disallow: /cgi-bin

Disallow: /wp-admin

Disallow: /wp-includes

Disallow: /wp-content/plugins

Disallow: /wp-content/cache

Disallow: /wp-content/themes

Disallow: /search/

Disallow: /author/

Disallow: /trackback

Disallow: /feed

Disallow: */trackback

Disallow: */feed

Disallow: /*?*

Disallow: /*?

Disallow: /xmlrpc.php

Disallow: /ext/

Disallow: */comment-page-*

Disallow: /2010

Disallow: /2009

Disallow: /2008

Откуда они могли появится и как их убрать из индекса.

Заранее спасибо за помощь…

Назрел вопрос. Ответьте пожалуйста.

Keywords практически одинаковые за исключением последних пары слов которые на каждой странице свои. Будет Гугл считать это дублями или нет? С description аналогичная ситуация.

WMT по этому поводу молчит, ошибок и недочетов нет.

Очень хочу услышать мнение по поводу сайта kinozal.me. Переходов с гугла практически нет.