intraweb

intraweb
Рейтинг
200
Регистрация
30.09.2007
wolf:
А что тут думать? Легко проверяется, вообще-то, что не учитывается.

Тоесть сайт где нет вхождений ключа, а только alt не будет релевантен запросу? А допустим 1 точное вхождение просто или 1 вхождение + 1 вхождение в alt, что релевантнее?

А почему тогда со снежинском увеличилось количество сайтов с картинками в топе?

Или учитывается наличие тегов img, а альт все равно какой?

Seo2z:
альт вообще не считается вхождением. Он учитывается только в поиске по картинкам

Может до Снежинска и не учитывался, сейчас думаю учитывается, даже не как точное вхождение, а как дополнительный фактор, наличие alt с ключом.

wolf:
Насчет кол-ва точных вхождений могу согласиться. А плотность тут причем?

Ну да количество точных вхождений и морфологических вхождений. Плотность думаю один из индикаторов спамности.

lcatlas:

Да и сам наблюдал на ура, как время, в любых его ипостасях, оставалось всегда решающим фактором в продвижении.

Время и контент всегда дают хорошие результаты и с ними невозможно переборщить.

Psycho:
Думаю, таки миф.

Возможно. Тогда получается Яндекс использует свои сотни факторов, чтобы определить, работает ли ссылка или нет. Дальше в апдейт он рассчитывает:

Количество ссылок точных вхождений.

Количество ссылок с использованием точных вхождений.

Количество ссылок с морфологическими вхождениями.

И дельту между количеством ссылок в прошлый апдейт и этот.

Анкор лист он же тоже хранит? Почему бы не анализировать и его релевантность, чтобы определять допустим тематику сайта и как то использовать при ранжировании. Почему допустим слишком большое количество ссылок с точным вхождением ведет к снижению релевантности? Для каких целей кроме НПС тогда используется анкор лист?

wolf:
intraweb, а с чего Вы взяли, что плотность по анкор-файлу вообще является фактором?

Плотность и количество точных вхождений в тексте сайта являются важным показателем для определения релевантности текста запросу. Точно также по аналогии возможно рассчитывается и релевантность анкор листа ключевому слову? Или это исключено?

Вот темой навеяны такие мысли /ru/forum/478366

wolf:
На первые три влияем, а вот четвертый меня поставил в тупик. Что есть "плотность семантического ядра"?

Допустим запрос металлические двери, все тексты ссылок ведущих на страницу записываются в анкор лист, и если просчитаем плотность в анкор листе по "металлические двери", "металлические" и "двери" у сайтов из ТОП-10, можно было бы под них подстраивать и свои показатели. А чтобы обезопасить себя на будущее сделать плотности в районе 3-10%, в таком случае даже пискнуть яндекс не посмеет, что анкор лист спамиться. Точно также и по текстам на сайте, нужно уменьшить количество точных вхождений до 2-5 например, и плотность до 2-3 процентов. Спамность нужно контролировать, я так пока думаю.

Psycho:

Вот Вы думаете, а яндексоиды-то могут думать иначе. И так в любом вопросе.

Да, да, нужно думать всем вместе оптимизаторам.

Касательно факторов, WE может повлиять сейчас на 4 фактора.

1. Определение базы работающих доноров.

2. Определение оптимальной скорости покупки.

3. Определение очередности покупки ссылок.

4. Определение оптимальной плотности семантического ядра.

wolf:
Вы озвучили всего 7 факторов, причем некоторые из них весьма спорны. Яндекс же заявлял о нескольких сотнях базовых и о нескольких тысячах их комбинаций. С чего Вы решили, что эти 7 - основные?

Количество нерабочих ссылок, наличие favicon, адрес, телефон, код города, скорость ответа сервера, зону домена, данные из whois, количество страниц, все теги, структуру сайта, вообщем я думаю 80% из факторов малозначимы. Но каждому из них нужно уделить внимание конечно, но они в целом дают 20% успеха.

Можно придумать сотни факторов, заносить в список нужно все, что можно проанализировать по сайту.

Psycho:
Думаете? :)

А что мешает спалить всех доноров из sape.ru? Тоже риск. Самое думаю лучшее, что могут сделать оптимизаторы, это сконсолидировать все вычислительные и аналитические мощности в вопросах минимизации всех рисков. В теории. А на практике, не брать сильно быстро много ссылок с палевных сайтов. Или просто пройтись разок и ручками поудалять палевные ссылки еще до попадания в индекс. И бюджеты максимально медленно наращивать.

Кстати наличие окружающего текста, тоже Яндекс думаю учитывает, и тематику, тоже, вплоть до стилистических и грамматических ошибок на сайте донора другое дело, что это все малозначимо. Если в Яндекс.Метрике есть цели для посетителей, Яндекс думаю учитывает и выполнение целей посетителями, и посещаемость. Да и владельца Яндекс.Вебмастера думаю палит, и если много сайтов спамных или под фильтрами он делает какие либо выводы, скорости обновление информации, наличие различных видов контента, разрешение картинок, длину текста, форматирование.

Касательно доноров Яндекс может учитывать.

тИЦ

Google PR (или свой аналог)

Google PR главной страницы (или свой аналог)

Количество внутренних ссылок со страницы.

Количество внешних ссылок со страницы, тематичность ссылок

Окружающий текст ссылки.

Количество битых ссылок.

Наличие вирусов.

Кодировку.

Язык.

Тематику.

Региональность.

Продажность seo ссылки.

Размер страницы.

Размер страницы в словах.

Уникальность текста.

Наличие ошибок в тексте.

Возраст сайта.

Авторитетность сайта/Полезность сайта для пользователей.

Наличие в Яндекс.Каталоге.

Обновление информации на сайте.

Количество входящих ссылок на сайт.

Количество исходящих ссылок с сайта.

Количество входящих ссылок на страницу.

Данные владельца сайта донора.

Главное понять как Яндекс палит seo ссылки, индексирует ли он базы бирж, и пессимизирует ли доноров из этих баз по каким либо запросам.

Всего: 1875