- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
ИМХО по всей видимости, если собрать все сведения о результатах экспериментов ТС то получается следующее -
1) Запрос ТС позволяет вывести результаты поиска, где ранжирование происходит по трасту ( возможно с погрешностью ).
2) Траст в глазах ТС - велечина единая для морды и внутренних страниц одного сайта.
3) Траст тестируемого сайта можно определить относительно сайта другого. Посему в запросе должно быть таки название урла.
4) Новый сайт получает достаточно весомую величину этого самого траста.
5) При приснившемся ТС запросе выше БДДБ присутствует сайт-конкурент.
6) Ну и на глаз можно попробовать определить сайт с крайне небольшим трастом.
Отсюда можно сформировать эксперимент. Например взять за основу БДДБ и конкурентов, добавить туда сайт с откровенно низким трастом и новый сайт. Потом произвольно добавить вместо некоторых морд внутряки.
Нулевой сайт имеет нулевой траст, т.е. в преставлении Сергея является хорошим донором. Потом в зависимости от действий с сайтом траст изменяется в ту или иную сторону. Т.е. в принципе шкала особо и не нужна. Другое дело, что хорошесть или плохость можно оценить с той или иной степенью вероятности, отличной от 100%.
То есть Вы считаете, что Яндекс изначально (после первой индексации) определяет хороший сайт/документ или плохой
в данном контексте не совсем уместное сравнение...
ведь документ при этом (при посещении ПС) может не быть ни донором (ну нет с него ссылок, причем даже внутренних), ни реципиентом (ну не ссылается на него никто - а адрес для робота через аддурлку добавили)
Отсюда можно сформировать эксперимент. Например взять за основу БДДБ и конкурентов, добавить туда сайт с откровенно низким трастом и новый сайт. Потом произвольно добавить вместо некоторых морд внутряки.
Не верно, Ваш эксперимент (таким, каким Вы его описали) имеет огромную вероятность для погрешности.
Не верно, Ваш эксперимент (таким, каким Вы его описали) имеет огромную вероятность для погрешности.
Это скорее даже метод проверки придуманного запроса.
а качество своего реципиента кому-то неизвестно.?
да и :
... Задача была: научиться определять хороших доноров.
Другое дело, что хорошесть или плохость можно оценить с той или иной степенью вероятности, отличной от 100%.
угу... это и есть камень преткновения...
особенно рассматривая то, что документов на сайте великое множество, ссылаются они на такое же множество сайтов (даже в пределах одного документа)...
и отсутствие искусственного интеллекта у алгоритма...
ведь ПС и юзер (юзабилити) - вещи разные...
как пример... скажем - ссылки на варез или порно = плохо, ссылки на официальные сайты = хорошо...
я пишу статью, ну о программе Адоб Фотошоп.
в конце даю ссылку на официальный сайт производителя = Адоб
а также информацию-предостережение о том, что в сети появился мошенник, раздающий по адресу *ссылка* нелецинзионный софт от Адоб, ни в коем случае не скачивайте его...
имеем - юзер получил и в том и в другом случае трастовую информацию...
ПС - сделала вывод о том, что я ссылаюсь на варез - значит я плохой...
а также информацию-предостережение о том, что в сети появился мошенник, раздающий по адресу *ссылка* нелецинзионный софт от Адоб, ни в коем случае не скачивайте его...
имеем - юзер получил и в том и в другом случае трастовую информацию...
ПС - сделала вывод о том, что я ссылаюсь на варез - значит я плохой...
Для этих случаев, Яндекс рекомендует использовать ноиндекс. Кстати кто-нибудь проверял теорию, что чем больше ссылок на сайте закрыто в ноиндекс, тем большее доверие получает сайт от Яндекса? Ведь можно специально наставить ссылки на плохие сайты, а потом закрыть их в ноиндекс.
а качество своего реципиента кому-то неизвестно.?
в глазах яндекса? или опять на свой глазок?
Для этих случаев, Яндекс рекомендует использовать ноиндекс
логично... но!!!
это знаем мы, это знают в ПС: ноиндекс - искусственный атрибут...
оперируем чистым хтмл, а также людьми, делающими сайты для людей, а не поисковых систем - а их мнение так или иначе должно быть учтено...
ну а веб-два-ноль тенденции сайтов соц.сетей и блогов вообще не предполагают возможность выбирать юзеру тип ссылки и "вмешивание" в хтмл-код и его атрибуты... а такие ссылки - пожалуй, единственные на данный момент, более-менее естественные...
вот на серче все автоматом выставляется в ноффолоу...