BangaManga

Рейтинг
57
Регистрация
08.03.2013
Должность
Java Developer
Интересы
Разработчик со стажем.
Яндексоид в прошлом
Proofer:
Откуда инфа? И про какой контент идёт речь?
Я исхожу и начальной формулы PR, а там упоминаний про контент нет.
Понятное дело, что у гугла имеются какие-то коэффициенты для групп сайтов.
Но откуда ты знаешь, что контент меняет передаваемый стат. вес? Всякие переспамы и фильтры мы не учитываем.

Алгоритм по определению веса самой страницы (документа) отнего выросло n алгоритмов, которые привели к созданию Panda.

Пример.

Страница А имеет вес ~100кб + уникальное содержание

Страница Б имеет вес ~ 50кб + 50 символов копипаста

Страница А имеет ссылку на допустим категории (разделы) C и соответственно => A влияет на C своими факторами

Страница Б в данном случаи ,если она ведёт также на разделы влияет хуже (или не влияет вовсе и как бы не в худшую сторону, как страница неполезная для сканирования).

Некогда ,когда не было Панды единственным способом определения плохих страниц в глазах ПС - это Supplemental.

Для доказательство погугли механизм определения одинаковых документов (файлов) в сети.

Такой алгоритм используется не только для контента текста ,но и для аудио ,видео.

Если интересно посмотри TED конференцию ,где руководитель Youtube объясняет ,как они определяют фрагмент схожести.

Поэтому для ПС хорошим признаком является уникальное содержание. Т.е. всё по сути к одному ведёт.

Proofer:
Ну математик же не дурак. Напишет софтину и забьёт в комп. В конце концов будет понятно какие вещи влияют сильней, а какие слабей.

Да ладно? Один фиг выдача строится по какой-то одной конечной формуле, но другое дело, что эта формула будет представлена в виде функций, которые имеют свои формулы внутри. Ну это как ООП в программировании, я себе так это дело представляю)

Не братишь не всё таки просто.

Пример.

донор A (на него вело 500 ссылок) и на страницу 10 ссылок. С этой страницы стоит ссылка на сайт B (на него ведёт 100 ссылок) и на страницу 100 ссылок + 1 (А)

В итоге при любом изменении A даже при добавлении контента ,если он связан с страницей откуда ведётся ссылка ,то страница B уже меняет вес.

Теперь представь ,как это с 1 000 сайтами ? Цепочка будет настолько длинная ,что вычисления займут приличное время и то нужно всегда иметь точные входные данные.

Хорошее описание о влиянии можно прочитать в исследованиях университета Стэнфорд книги по поисковым алгоритмам и алгоритм логике.

+ для новичков инфа от яндекса

http://download.yandex.ru/company/iworld-3.pdf + приложил тут многое интересно

+ добавка

Новичкам стоит прочитать принцип работы алгоритма PageRank в нём тоже есть истина ,но как известно всем ныне PR так сильно модифицирован, что от истоков мало что осталось

Proofer:
Прикол вот в чём. Ссылка может передать анкорный вес (а точнее она всегда его передаёт), а вот статический вес может быть урезан или вообще не передаваться.
Сорри, но способ не рабочий)
Проверить никак нельзя.
А вообще можно нанять ниндзя и пусть он сгонят в офис гугла за формулой, а там уж только подставляй и высчитывай..понадобится математик ещё и, возможно, базы данных гугла.

Какой математик может расчитать такое количество параметров ? Proofer ты представляешь ,как сейчас быстро меняется web ? Единой формулы нету.

Хорошим примером о сложности подсчёта является сервисы коротких ссылок ,а точнее ,как они повлияли на поисковые машины.

Вообще топикстартеру нужно хотя бы раз прочитать о том ,как работает поисковая машина (для чайников).

Был такой вопрос к Мэттушке и в итоге он ответил, что ссылка может сама по себе менять степень хорошести.

1 - Возраст ссылки

2 - Качество доннора

3 - Качество страницы

4 - Количество ссылок на странице

5 - Текст вокруг ссылки

6 - Положение ссылки

Пунктов определяющих качество слишком много.

jpg matt-cutts-5-erreurs-seo.jpg

Proofer таки прав. Группы банят да и ещё ох как часто.

Вдобавок люди привыкли ,что соц сети - это уже мемы и всякий копипаст, что доверие не такое высокое.

ёмоё....уже дурно становится от этих всех новостей про пингвина. :(

jpg matt-cutts-1.jpg

Всем спасибо за внимание и "переживания". Команда инженеров Google после ряда писем + факса уже отреагировала и оказывается наложила случайно на сайт ручной фильтр. Причём такой ,как будто для adult сайтов (Видимо теперь партнерские ссылки с Alfa-Bank, Trust считаются спамом).

"Previously the webspam team had taken manual action on your site because we thought it violated our quality guidelines."

Вот так бывает с сайтами-дочерними компаниями банков. Тему можно отправлять в корзинку. Урок усвоен, что и инженеры Гугла шалят причём конкретно.

Proofer:
Так бана и не было.
Когда позиции упали?


Наркоманы что ли?

Обвал в 13 апреля до 5 кликов в сутки и выше не подымается. 150 просмотров с средних 100 000 - 150 000

Да, наркоманы вааще только и делаем, что наркоманим ;)

---------- Post added 10-05-2013 at 12:01 ----------

september:
Если вы не видите причин, это не значит, что их нет.
Может сылочки на вас плохие? Или все-таки контент переспамлен/растянули?

Ссылок не закупалось. Есть ссылки с Риа новости, Beeline, Mts и т.д. это их партнеры. Компания n-нная дочка от Trust Bank

Rambler поиск уже давно сдох. Они уже даже не обновляют его походу. Вообще из крупной компании они стали непонятно чем. Агрегатор новостей тоже на кол никому не нужен ибо это можно прочитать и на самих сайтах.

Лучше подумать о более молодых сервисах с схожей тематикой, которые имхо более востребованы.

владельцу сайта вообще ещё везёт, что столько трафика у многих сайты и получше, но трафика капелюшечка, так что можно не плакать о несправедливости.

Всего: 626