Совет для "не малыша" почитать о таком термине как "виртуальный сервер"
Дело в том, что даже у _платного_ хостера на одной машине может размещаться несколько сайтов. И IP у всех будет один и тот же.
(Только аренда физического сервера или collocation гарантирует тебе гордое одиночество по IP, но это чутка дороговато даже для небольших фирм, не говоря уже о простых смертных)
Так что если ты разместишь ссылки на себя на xxx.newmail.ru и xxx.nightmail.ru, будут засчитаны два разных домена (хотя IP у них один и тот же), а вот ссылки с xxx.newmail.ru и yyy.newmail.ru действительно могут быть посчитаны за одну.
Ничего плохого в индексации домашних страниц не вижу. Наоборот - до свидания гуестбуки и "ленивые" форумы типа этого или моего.
Полезный форум должен по результатам дискуссии порождать факуху или хаутуху. Статическую.
До тех пор, пока Яндекс индексирует динамику, ни я ни Gray этого делать не будем. Ну разве что если только с Рамблером более плотно подружиться не захотим или одни и те же вопросы не надоедят
Если ты порождаешь статические страницы, как на этом форуме, то и бороться не надо.
noindex,follow ко всей динамике - максимум что может себе позволить поисковик, который заботится о качестве, а не о количестве.
А ежели ты вебмастер, а не так погулять вышел, то ты озаботишься тем, чтобы у тебя все динамические страницы выглядили статическими - никаких намёков на ?, &, = в url, вот тогда ты заслужил индексации.
И тут первыми "отвалятся" как раз сайты у большинства бесплатных хостеров, которые без зазрения совести можно отнести к разряду домашних страниц.
Приведу контр пример. Год назад, когда я делал сайт для цветочно-садового магазина, мне выдали задание полностью выкачать два сайта конкурентов.
При этом оба они были динамические. Один из них выкачался без проблем, а со вторым вышел конфуз. Ссылки у него тоже были динамическими.
И всего-то с десяток разделов, но возвращаешся к предыдущему разделу каждый раз по новой ссылке.
Если есть время - можешь поэкспериментировать на Яндексе. Могу предсказать судьбу такого сайта - сначала (и возможно довольно долго) он будет всплывать всё выше и выше по всевозможным запросам, а потом его забанят. Слабо опровергнуть экспериментально?
Угумс. Запрещают только когда есть что прятать от всеобщего обозрения.
В противном случае задача вебмастера добится как можно более полной индексации.
А задача поисковика - избавится от мусора в базе, или как минимум добится того, чтобы этот мусор не всплывал.
Как обычно это было сугубо личное IMHO
М...да. Не совсем всю статику. Каким образом выбраны страницы с форума - одному гууглю известно
Не знаю, не знаю. Индексирует мои страницы как часы. И начал индексировать не позже чем через месяц с момента регистрации. Всю статику проиндексировал - глубже не бывает.
или как.
Хотя попытаться договориться можно
.asp =Active Server Pages == WinXX + IIS + MS SQL Server
А я уж было подумал, что Яндекс - сексуально озабоченный поисковик
Я уже писал о проблемах индексации в Яндексе cgi-скриптов, так что знаю, что у Яндекса в глазах не то что троится, а удесятеряется
(Кстати, вспоминаю с улыбкой какое-то руководство, в котором было написано,
что вебмастер знает лучше поисковика сколько страниц у его сайта; ещё один камень по поводу размера базы). Но, приводя этот пример, я хотел лишь продемонстрировать отсутствие класетризации в Яндексе.
Или, по крайней мере, её ущербность. Думаю, что по ~150 статическим страницам можно было однозначно определить тематику сайта, да и
более 600 "страниц" форума в понимании Яндекса тоже явно не Бритни посвящены.
Так что Яндекс попрежнему предпочитает полноту базы качеству поиска.
Как пользователь поиска Яндекса я предпочёл бы не находить программерские сайты по таким запросам. Да и как вебмастера такой факт меня
абсолютно не греет.
З.Ы: Извини, Сергей, но и этот форум через недельку будут по этому же запросу посещать
С уважением,
Артём.
Да, для тех кто не понял
Имелся ввиду сайт под №1 по запросу.
Даю слово, что страница "релевантная" запросу единственная на всём сайте, и уж тем более такими словами никто не ссылается.
Запрос к размышлению.
[This message has been edited by AiK (edited 18-09-2001).]
Я бы не стал однозначно утверждать, индексируются или нет документы, находящиеся в папке cgi-bin.
Достоверно известно, что наряду с индексирующими cgi-скрипты поисковиками (Яндекс) есть поисковики не индексирующие cgi-скрипты (Рамблер; по крайней мере если и индексирует, то делает это в последнюю очередь; Апорт находится посередине: результаты работы скриптов он не индексирует, но по ссылкам проходит).
Как отличают скрипты от не скриптов поисковики могут рассказать только разработчики.
Я бы делал филтр так: однозначно закрывал бы по расширениям cgi, pl и т.д. (а так же прочую динамику типа asp,jsp,php и т.д.),
игнорировал все URL, содержащие ?.
И, чтобы жизнь мёдом не казалась, полностью фильтровал бы URL содержащие cgi-bin.
Хотя, теоретически, в папку cgi-bin можно положить и статическую страницу а ля *.html,
на практике многие веб-сервера настроены так, что любой документ в этой папке трактуется ими как cgi скрипт...
Подводя итог: если бы я хотел, чтобы мои страницы индексировались всеми серверами, я бы воздержался от размещения статических страниц в папке cgi-bin (хотя мой сервер этого просто не позволяет )