photomuza

Рейтинг
234
Регистрация
02.05.2009

MatrixGod, так у них кроме копипаста навернное еще есть и уникальный контент, наверняка которого больше и ссылок жирных также, не подумали? Или Вы решили, что все только и делают, что копипастят друг у друга?

Как работают фильтры Гугла
Google Duplicate Content Filter -- фильтр для сайтов, которые используют неуникальное текстовое наполнение: применим для сайтов, использующих контент, который был создан, кеширован и проиндексирован другими сайтами. Новые сайты обходят фильтр дублированного контента вручную. Как правило, такие сайты не поднимаются в результатах поиска высоко. Ранжирование страницы может быть понижено, если на нее не ведут обратные ссылки, и вашим результатом будет размещение в опущенных за незначительностью результатах (omitted search results) или в «дополнительных результатах поиска» (supplementary results).

Да, не закрыт - vvv.ru/robots.txt и ссылка на velobiker.ru через

<a href="go.php3?id=3101"...

А разве запрет в robots.txt запрещает боту идти по ссылке? robots.txt есть указание не сканировать и не индексировать файл (папку). Мне кажется, по аналогии nofollow: ссылка в индекс не заносится, но в количество внешних она входит.

В общем, проверить просто: сделаю страницу без единой ссылки на нее, кроме одной с главной - через РНР, а РНР в папку, а на папку - robots.txt. Если страница будет в индексе (открытая), значит бот ходит по ссылке.

Тю, про robots.txt я и не подумал :) Сенкс!

Спасибо. Т.е. чтоб не уменьшался трастовый вес (так кажется?), передаваемый со страницы нужным сайтам по прямым внешним ссылкам (обмен и свои ресурсы), можно смело ставить на рекламу через РНР?

С Гоголем было прикольно, жаль не сохранил, там кажется было Googol написано и большой нос. :) Тоже нравится, с юмором ребята, и креативом.

(в поиск Гугла)

Не показывает он все, только те что считает значимыми. Если интересует с кем менялся, то смотри кэш Гугла того сайта, с кем менялся.

Всего: 1726