Vyacheslav Tikhonov

Рейтинг
130
Регистрация
27.01.2001
Должность
Developer
Интересы
search engines, bots, information retrieval, data mining
Master's Degree in Computer Science

Шутки шутками, но последние изменения алгоритма работы Гугла определенно касаются оценки качества контента - есть серьезные подозрения, что ребята учатся автоматически его оценивать. Особенно представляют интерес некие Java-боты. :)

А почему шутка то?

По словам Игоря Ашманова настоящий Сергей Брин практически не говорит по-русски. Они встречались, если не ошибаюсь, в 2001-м, когда Игорь был гендиректором Рамблера. Вряд ли Сергей за это время подучил русский. ;)

"Dust Cleaner" получает около $3000 в месяц.
Для получения этой позиции требуется знание основ математического анализа и физики твердого тела, поскольку пыль обладает определенными физическими свойствами и такой специалист должен точно рассчитать под каким углом и с какой силой дуть на клавиатуру. Естественно кандидаты проходят и медицинскую комиссию, где проверяется объем легких, зубной прикус, состояние желудка(не пучит ли человека в рабочее время) и т.д.

Черт, здорово-то как написано! Если бы не первоапрельская тема, то я почти готов поверить, что это Брин и есть. :) Русский человек так не напишет.

Сайт уже месяц как несуществует. Теперь на этом домене другой ресурс. Поэтому считаю вопрос closed.

Я же указал, что состояние сайта оценивалось на момент аудита - 01.02.2006. Новый сайт появился несколько недель назад.

Вот именно что сайт ориентирован на дополнительный запрос. Это и называеться таргетированными запросами. Тем более что это были запросы на 12.01.2006 - поэтому я считаю что оценка не объективна.

За эти, так называемые "таргетированные" запросы, сайты обычно банят и переводят в Supplemental Results. Что, собственно, и произошло.

В любом случае, так делать нельзя.

Кол-во это еще не означает качество если ты не занимался оптимизацией тайтлов и т.д.
Но если все мета тэги проработаны верно ... считай что кол-во это один из основных факторов посещаемости ресурса.
Ответить с цитированием

slavic, я бы порекомендовал поскорее забыть о ресурсе 3ada.com, для которого вы случайным образом нагенерили множество кейвордов и засунули их в индекс Гугла. Во-первых, это плохо пахнет - ибо спам, о чем я неоднократно говорил Ивану, во-вторых, именно из-за этих штучек у сайта начались серьезные проблемы.

Что же касается анонсированной оптимизации, то на момент аудита ее здесь вообще не было.

Что-то делает Гугл, думаю скоро увидим результаты
Ответить с цитированием

Похоже, что в Google ведется борьба с dublicate content, поэтому множество сайтов сейчас ищется во вспомогательном индексе, из которого и отображаются Supplemental Result.

Лечится сменой контента страниц. Как вариант можно все старые линки проставить на 302-й редиррект, а потом его убрать. Среднее время восстановления в основном индексе - месяц-два.

Я так понимаю, что здесь нужна больше имиджевая реклама, а может какие-нить нестандартные ходы, например, сервисы какие-нить интересные для авторов публикаций и т.д. Или я неправ?

Неплохим вариантом будет создание блоков новостей по одной и той же теме, и контестная привязка их к топовым новостям. Это позволит создать страницы с хорошим весом основных ключевых слов, которые будут неплохо искаться в поисковиках.

по запросу "Тапочки в Санкт-Петербурге" мой сайт на 1-м месте, а по выражению "Тапочки в Петербурге" он в самом низу, при чём "найден по ссылке", хотя на сайте написано.

Все дело в координатах слов - Яндекс, похоже, показывает сначала строгое соответствие, когда одно слово идет за другим. Добавьте на страницы фразу "Тапочки в Петербурге" и все будет окей. :)

lytkin:
А если поисковик поменяет html-код своей страницы выдачи результатов? Т.е. если там результаты поиска будут заключены в <!-- results -->......<!-- results --> (это к примеру, может div'ом сделано). А потом сделают вот так
<!-- результаты -->......<!-- результаты-->. Т.е. всегда придется менять код? Навсегда как-то зацепиться за результаты поиска не получиться?

Всегда можно ежедневно отслеживать выдачу по какому-либо распространенному слову, чтобы определить момент, когда поисковик сменил выдачу. Это несложно, к тому же, быстро можно подправить regexp.

А труёвые поисковики разрешат этому метапоисковику тягать их выдачу?

По крайней мере, Google и Яндекс сейчас дают относительно бесплатный API(XML). Если не наглеть, то для начала его должно хватить. :)

Но мне не верится, что метапоисковики так получают результаты поиска. Это же сколько не нужных ссылок надо вычистить.

Так и получают, причем от множества полнотекстовых поисковых систем. Выбор релевантных ссылок по сниппетам - это уже другой разговор, так как алгоритм ранжирования у каждого метапоисковика свой.

И еще проблемы будут с определением какая ссылка является результатом на запрос.

Не совсем понял это утверждение - здесь все однозначно, если выдачу разбирать регулярными выражениями.

Всего: 847