богоносец

богоносец
Рейтинг
776
Регистрация
30.01.2007
tocell:
ну а самито они чего? как же их алгоритмы супер-пуперр???

А задайте им этот вопрос и запостите ответ. (это оне кагбе намекают, что проверяют не так, как человек/браузер)

Pain.Reign:
Я не про сами страницы а про навигацию на верхний уровень.

Тогда не по наведению, а по загрузке страницы, например.

Аякс он для того и надо, что бы поменьше нагружать сервер. Что бы не перегружать все страницу а только нужную часть.

А потом посмотришь на 100 KB HTTP-заголовков после простейших манипуляций в Я.почте ... ну и чего же наэкономили?

А сколько там строк джаваскрипта мне вообще побарабану) он на стороне клиента выполняется)

Это как минимум ещё одно HTTP обращение. И ожидание первой загрузки мегаскрипта.

То хотите через Аякс, можно и без JS, пример — http://seo-xslt.narod.ru/DEMO/perelinkovka-gavno.xml

покажет и при выключенном в браузере выполнении скриптов, но не с плагином NoScript… если не залезть в его изначальные настройки.

Sandalia:
надо просто смириться

Зачем?

лучшие сайты под фильтр не попадают

Это опровергает сам же Сегалович:

Мы очень тщательно отслеживаем долю документов, не попавших в выдачу, и если обнаруживаем качественный документ, который мы незаслуженно запессимизировали, мы вносим соотвествующие изменения в алгоритмы. И могу с уверенностью сказать, что доля таких сайтов у нас очень маленькая. Мы тщательно следим, чтобы она не увеличивалась, мы стремимся к тому, чтобы она уменьшалась.

Интересно, 3% или 7?

Или 0.1%, но по их же всегда правильному 🙅 автоматическому определению?

А про то, что такое «хороший авторский контент», дал понять, что ... его распознавание не является их реальной целью, ну не считают они это выполнимым:

мы научились хорошо отличать спам от не-спама. За этим мы как-то более-менее следим, это для нас очень важный показатель, мы стараемся, там выбрасывать. А вот выделить истинный, качественный, хороший авторский контент трудно по одной простой причине – для того, чтобы его выделить, надо, чтобы люди, которые смотрят на него, оценивают его, они хорошо в нем разбирались. Это просто очень дорого сделать.

http://www.echo.msk.ru/programs/dozor/751913-echo/

Им надо (без лишних затрат) быть популярными, а это не синоним качества. Так что у ГСтроя большие перспективы, и это почти во всём мире так.

Pain.Reign:
поскольку аякс это джаваскрипт я подозреваю, что поисковая система не будет видеть этих обратных ссылок на категории

Выполнения XSLT ими тоже пока не замечено.

Без JS вполне возможно сделать одни ссылки видимыми ПС, другие нет.

Pain.Reign:
при наведении допустим накакой-то елемент, он загружается из базы если нужен. вопервых это и более производительно чем каждый раз грузить и добавляет навигацию

1. Удобно ли это будет простому посетителю?

2. При этом для поиска страница останется без контента. Что боту показать? И как? Вам прятаться или показываться?

vold57:
правила его игры

Любой Сегалович подтвердит, что: современные искалки не умеют воспринимать человеческие факты (правила и интересы), зато умеют быстро просеивать кучу документов, выделяя самые примитивные признаки, доступные алгоритмам. Реальную релевантность вычислить они не могут, только вероятность релевантности.

И фильтры определяют не факт, а вероятность... чего-то вредного. Поэтому, когда человек читает фразу

Мы старается /* хорошая очепятка */ соблюдать баланс интересов и вебмастера, и пользователя поисковой системы. Когда эти интересы вступают в конфликт, то мы всегда решаем этот конфликт в пользу пользователя пусть и в ущерб вебмастеру.

— не следует думать о состоявшихся конфликтах, речь только об их вероятности... с т.з. алгоритмов, обученных как уж получилось.

В ситуациях реальной неопределённости — принимается решение против сайта (факт помню). А точный подсчёт неопределённости (ошибки величины вероятности) скорее всего не делается (это дороже подсчёта самой величины).

Не получится написать какие-то реальные «правила» в человеческих терминах, поскольку действуют-то алгоритмы, в которые программеры/асессоры только пытаются вложить некое отражение «их представлений о качественном сайте» + могут быть и непредвиденные последствия машинного обучения, завязанного на простые признаки.

alger:
Из индекса удаляются сайты, которые монетизируются перегонкой трафика.

Факт монетизации не проверяется, а параноидально предполагается чистильщиками.

Уже убрал ссылки.js на сайты с метрикой. Стояли несколько лет просто так.

Илья Сегалович:
Мы очень тщательно отслеживаем долю документов, не попавших в выдачу, и если обнаруживаем качественный документ, который мы незаслуженно запессимизировали, мы вносим соотвествующие изменения в алгоритмы. И могу с уверенностью сказать, что доля таких сайтов у нас очень маленькая. Мы тщательно следим, чтобы она не увеличивалась, мы стремимся к тому, чтобы она уменьшалась.

Постеснялся назвать реальный % ... и как определяют про «незаслуженно»... пишут алгоритмы, проверяющие деятельность фильтров? Или руками: сколько из 1000 проверенных?..

ya_sinoptik:
кажется мне, что вас всё это гнетёт не по-децки

Но ощущается и некоторое облегчение... не придётся больше уточнять и править давно уже надоевшие тексты... бросал несколько раз, но опять возвращался, их же много читали.

Gagarin12:
То есть отсутствие контента можно частично компенсировать объемным Title?

Не знаю. Ссылками компенсировать можно.

Но а что вам ещё остаётся заполнять, если текста нету?

Пока что у меня такие title:
"Натяжные потолки кухня фото"
"Натяжные потолки гостиная фото"
и т.д. штук 6-7 подобных ключей.

Это более подходит для альтов тех картинок... хотя это же можно упомянуть и в более длинном тайтле документа.

По региону по таким запросам конкуренции нет.

Скорее будет проблема с индексацией нескольких страниц... если тайтлы различаются минимально. Урлы страниц попробуйте сделать максимально различающимися... типа не сваливайте в одну папку.

Estelia:
Чем клиент аргументирует свой "настрой"?

Нефиг портить оптимизаторщиной такой диз!

ps самому стало интересно, как сейчас с необходимостью контента для индексации. Слеплен абсолютно пустой документ для поисковиков

<?xml version="1.0" encoding="UTF-8"?>

<?xml-stylesheet href="user-empty.xsl" type="text/xsl"?>
<html></html>

Появится ли он кода-нибудь в индексе?.. урл тупо собран из http://translit.ru/ и http://translate.google.com/

melkozaur:
Тут имхо случай все-таки нетривиальный, ведь сайт не полгода назад создавался.

Недавно состоялся аналогичный случай с сайтом, которому более 5 лет, бОльшую часть которых ощущалась Я.любовь.

StaroverovMax:
Если есть уникальный и интересный материал, то он должн, как можно быстрее оказаться на крупном и интересном портале (в этом есть логика)

И это же логика ГСтроя.

Если есть уникальный и интересный материал, то, по хорошему, желательно владельцу/автору решать — где ему оказаться.

Кто может сказать зачем Яшке эти первоисточники? Авторов не обижать?

В долговременном плане этот пустяк означает наличие или отсутствие мотива: создавать новый интересный контент. Если этого мотива почти не останется, то яшке придётся кормить своих ползателей уникализированным дерьмецом.

робин гуд:
Зачем произведённый кем-то продукт его владельцу, да ещё в таких количествах? Надо его быстрее скоммуниздить и засунуть на крупный ...

... и пришлось вводить карточки на всё.

Если не самоподдерживается минимальный порядок, то производство прекращается... даже если ПС не желает адекватно исполнять роль судьи и цензора, как они говорят... им же самим скоро контекст не начем будет крутить.

sssss:
Получается так - уникальный контент мы не индексируем, потому что есть дополнительные факторы, а если у вас украли контент, но факторов нет - можно индексировать на чужих сайтах. Данной фразой Яндекс декларирует то, что он и не собирается учить свои алгоритмы определению первоисточников.

Да, ГС с соблюдением всех формальностей я.лицензии будет в индексе и в топе, а первоисточнику будут слать отписки.

Да может попасть в индекс и долго там быть. А в тайтл можете слов 30-50 написать, только не перечисление запросов, а человеческие фразы со словами запросов. Трафф будет именно какой-нибудь.

Как воспринимает Яндекс ленты RSS, что это для него - отдельная страница с отдельным URL

Да, отдельная. Даже кэш RSS умеет показывать.

301

inurl:rss.xml > http://help.yandex.ru/school/rss.xml редиректит, наверное давно уже, а вот и кэш.

В роботсе закрывайте /index.php?format=feed или как там они начинаются, и несите в http://webmaster.yandex.ru/delurl.xml каждый урл... и смотрите что ответит.

Всего: 13660