С другой стороны, отдельно от поисковика каталог, насколько я помню, еще не анонсировался. Еще один приятный сюрприз -- есть поиск только по каталогу, без привлечения поисковика, раньше это было проблемой.
С уважением,
Александр Садовский.
Речь идет не о смысловом разборе текста, а о том, что любое влияние оптимизаторов меняет ранее выявленные закономерности. Например, проведен эксперимент, задействующий десятки тысяч сайтов и сотни тысяч ссылок, в результате которогоопределено, что ссылки, текст которых совпадает с запросом, указывают на релевантный запросу сайт при некоторых условиях S1 (ВИЦ страницы, число ссылок, запрос, ...). Теперь представим, что оптимизаторы, зная принципы работы алгоритма, создают тысячи сайтов, которые подогнаны под эти параметры. Даже если половина из них работает честно, эксплуатируя только запросы, в точности совпадающие с темой сайта, то оставшаяся половина, фактически, ухудшит точность поиска по ссылкам вдвое или больше, так как сайты оптимизаторов будут наверху поиска.
Что получается? Нужно снова проводить дорогостоящий эксперимент, чтобы выявить новые условия S2, при которых алгоритм покажет хорошие результаты; вполне может оказаться, что отделить сайты оптимизаторов от остальных невозможно. Так как фактор еще приносит какую-то пользу, но точность у него заметно упала, поисковик вынужден снижать его вес, чтобы улучшить релевантность.
В итоге, оптимизаторы могут легко сделать неприменимыми множество алгоритмов. Как с этим бороться? Вкладывать новые и новые деньги в разработку алгоритмов, которые, к тому же, требуют все более дорогой аппаратуры для нормальной работы? Наиболее удачным оказывается комбинированный вариант -- совмещение алгоритмических действий с административными (наказание слишком ретивых спамеров).
Конечно, излишнее обобщение вредно. Я также согласен, что в результатах поиска коммерческие сайты должны чередоваться с информационными. Но mager утверждает, что от засилья сайтов фирм по "коммерческим" запросам всем будет хорошо. Именно это утверждение я считаю некорректным и пытаюсь опровергнуть.
Но практически никто из оптимизаторов для продвижения сайта клиента не ставит ссылки на своем раскрученном ресурсе. Почему-то сайт Ашманова не забанен, хотя Илья наверняка о нем знает, нормально работают и десятки других сайтов. Это "Агаве" хочется перевести вопрос в плоскость "почто животину доходную мучишь?!", в то время как Яндекс поставил его совсем по-другому: "Яндексом пользуйся, но и пользу рунету ссылками и информацией приноси".
Не факт -- у меня часто стоит задача найти либо полную подборку материалов по теме (если их немного), либо найти 3-5 лучших статей. Поэтому, даже если на первой странице я встретил приемлемый документ, я часто иду дальше.
...интересует оформление паспорта, но не услуги какой-то фирмы по оформлению. Впрочем, зачем гадать, если можно посмотреть в Рамблер-Ассоциациях и Яндекс.Директе?
Как видно, заметная доля запросов касается ОВИР, а не услуг фирм по оформлению. Люди знают, где нужно получать паспорт, и хотят уточнить детали. Много запросов про анкеты и бланки для загранпаспортов. Много запросов про порядок оформления ("документы в овир", "получение загранпаспорта", "как оформить"). И т.д.
Число запросов, которые прямо или косвенно указывают на желание получить услуги фирмы, довольно незначительно: "загранпаспорт срочно", "срочное оформление загранпаспорта" и подобные им -- 2% всех запросов; "загранпаспорт услуги" и подобные им -- 0,2% запросов.
Безусловно, ваш клиент тоже может рассказывать на сайте про ОВИРы Москвы и Питера, описывать порядок получения и приводить анкеты с бланками. Но это не значит, что люди ищут услуги по оформлению, им ведь нужно совсем другое.
Верно, но сайтов, у которых оптимизированы ссылки еще не так много, потому что алгоритм PageRank возник и распространился среди поисковиков позже, чем мета-теги. Каждый новый шаг от поисковиков парируется новой волной оптимизации. Можно выделить кластер страниц, у которых проведена оптимизация текста, и применить к ним другие критерии. Можно выделить кластер страниц с оптимизированными ссылками. И т.д. Но выловить все такие страницы невозможно.
Каждый раз после введения нового алгоритма через некоторое время качество поиска заметно падает -- благодаря оптимизаторам. И стремление банить -- это лишь угроза наказанием, чтобы умерить пыл ретивых оптимизаторов, так как невозможно изобретать новые и новые алгоритмы ежедневно.
Спорный момент. Это долго доказывал Андрей Иванов, но я не совсем с ним согласен. По запросу "кондиционер" я могу искать не только товар, но и схему работы, и wizard по выбору (вроде Яндекс.Гуру), и описание рынка кондиционеров. В идеале поисковик должен представлять в результатах все возможные области интереса, а оптимизаторы нацелены только на одну -- коммерческие продажи.
Почему невозможно? Можно, 54 страницы проиндексированы:
#url="autonavigator.ru*"
Через Яндекс.Бар информация действительно не выдается -- но он использует параметр serverurl, который учитывает все зеркала, и потому там возможны глюки, связанные со склеиванием зеркал.
Сила алгоритма заключается в выдаче качественных результатов на естественных (неоптимизированных) текстах в интернете. Именно таким алгоритмам оптимизаторы мешают.
Думаю, проблема в другом -- в том, что конфликт во всех подробностях был вытащен на всеобщее обозрение. Когда министру говорят, что он продажный, он может промолчать -- это пустая болтовня. Когда же говорят, что фирма А**** получила крупный заказ от государства с помощью взяток чиновнику его ведомства, министр не может молчать. Он должен публично показать, что относится негативно к такому безобразию, иначе пострадает его собственная репутация. Вероятно, он и так бы наказал чиновника или провел бы операцию "чистые руки" по искоренению взяток в ведомстве, и все прошло бы тихо, с минимальным ущербом для всех сторон. Но, увы, скандал стал публичным и виновные понесли наказание.
Я об этом и говорил -- сильным алгоритмам оптимизаторы мешают. Именно поэтому введена практика наказаний.