- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В связи с появлением нового фактора в ранжировании похожего по поведению на Trustrank, на форуме снова активизировались обсуждения возможности пессимизации за внешние факторы.
Предлагаю поставить эксперимент, чтобы прояснить этот вопрос. Сам также намерен принять участие, но чем больше человек повторит, тем надежнее результаты. Опять же, возможно вы меня где-то поправите в методике.
Методика. Регистрируем несколько новых доменов, размещаем на них тексты. Размещая, проследим чтобы частота самого частотного термина была во всех текстах одинаковой, дабы исключить возможное влияния текстовой тошноты на чистоту эксперимента. Также во всех текстах вставляем по нескольку одинаковых контрольных слов, предпочитая в их качестве редко встречающиеся в интернете слова. Контрольное слово не должно повторяться на сайте более одного раза. Добавляем сайты в аддурилку для индексации. Если предложите способ позволяющий ускорить индексацию и не влияющий на статический вес (вИЦ), буду благодарен.
По идее после индексации, с учетом одинаковой тошноты, одновременной регистрации доменов и отсутствия внешних ссылок, релевантность сайтов по контрольным словам должна быть равна. И в выдаче по этому слову они должны идти друг за другом.
Проверить действительно ли они равны, можно поместив пары проверочных слов. На одном сайте слово выделено в тег <strong>, на другом такое же слово без тегов. Проверочное слово также не должно повторяться на сайте более одного раза. Поскольку этот тег недавно вновь начал оказывать пусть небольшой, но положительный эффект, то взяв пару сайтов и сравнив их сначала по контрольному слову, а потом по той паре проверочных слов, в которой тегом <strong> выделено слово на сайте который был ниже по контрольному слову. Если теперь выше окажется другой сайт, то значит они действительно приблизительно равны.
После этого на сайты оказавшиеся чуть выше по контрольному слову покупаем ссылки. Одну или несколько, лучше варьировать. При этом в качестве доноров набираем самые спамные какие найдем площадки. Текст неважен. Если после индексации и учета ссылок, бывший чуть выше сайт уплывет вниз и окажется ниже своего собрата по контрольному слову, то значит действительно существует отрицательный эффект от покупки некоторых ссылок.
Конечно спамность прикинутая оптимизатором "навскидку" сильно отличается от спамности с точки зрения яндекса. Но как раз тут поможет общее количество поставленных экспериментов. Если хотя бы на парочке примеров этот эффект будет наблюдаться, значит "отрицательный траст" это реальность. Если сайты поменяются порядком в выдаче, то другого объяснения этому лично я пока не вижу.
Эксперимент конечно займет значительное время, но как мне кажется этот новый фактор пришел к нам всерьез и надолго. Поэтому даже после "Магадана" эта информация будет актуальна.
Что ж, мысль хорошая, нужно будет попробовать. Сделал неделю назад пару сайтов для подобных экспериментов на Народе (была мысль проверить, на самом ли деле, Яндекс очень полюбил народные сайты). Правда, для чистоты эксперимента, наверное нужно сделать ещё парочку на платном хостинге. Так, что если будут ещё соображения - прошу в личку.
Поскольку этот тег недавно вновь начал оказывать пусть небольшой, но положительный эффект
Сколько народу сейчас рванет выделять ключевики... 😂
Так коллега обнаружил для себя новый тег. Следующие эксперименты показали, что тег <strong> работает лучше, чем <b>...
Если хотя бы на парочке примеров этот эффект будет наблюдаться, значит "отрицательный траст" это реальность.
Что ж, тогда начнется война всех против всех, раз уж завалить конкурента можно таким дешевым по деньгам способом.
Так коллега обнаружил для себя новый тег. Следующие эксперименты показали, что тег <strong> работает лучше, чем <b>...
Тем временем другой его коллега не страдал экспериментаторской фигней и делал вместо этого свое дело наращивая тИЦ да ожидая, что уже вот-вот займет свое место в топ10, ведь по тИЦу он давно всех обогнал...
Что ж, тогда начнется война всех против всех, раз уж завалить конкурента можно таким дешевым по деньгам способом.
Для того чтобы завалить конкурентов одного подтверждения, что отрицательные ссылки существуют явно мало. Для этого нужно как-то научиться их вычислять, потому что на "глазок" явно не вариант. И покупая вперемешку отрицательные и какое-то количество положительных большого эффекта не добьешься. Плюс там могут быть другие нюансы, ограничивающие предельное негативное воздействие только с подобных ссылок.
Если эксперимент подтвердиться то первый результат будет в том, что те кто до сих пор не думал себя утруждать наконец начнет более обдуманно и внимательно покупать ссылки на свои сайты.
наконец начнет более обдуманно и внимательно покупать ссылки на свои сайты
может стоит просто не подовать в sape плохие сайты? проще получается :)
может стоит просто не подовать в sape плохие сайты? проще получается :)
Вопрос: а какие сайты хорошие? ;) дабы продавать только их ;) и долго ли они будут хорошими после того, как они будут продаваться..
наконец начнет более обдуманно и внимательно покупать ссылки на свои сайты
может стоит просто не подовать в sape плохие сайты? проще получается
может просто стоит тщательно выбирать площадки на которых покупаете ссылки ?
а эксперимент все равно интересный )
Так коллега обнаружил для себя новый тег. Следующие эксперименты показали, что тег <strong> работает лучше, чем <b>...
Костя, а <strong><strong>ключевик</strong></strong> ещё лучше работает! 🚬
с учетом ... одновременной регистрации доменов и отсутствия внешних ссылок
Это сетка (доров, сателлитов).
После этого на сайты оказавшиеся чуть выше по контрольному слову покупаем ссылки. Одну или несколько, лучше варьировать. При этом в качестве доноров набираем самые спамные какие найдем площадки. Текст неважен.
Это создаст неопределенность.
У предложенного подхода нет чистоты интерпретации результатов. Этот недостаток можно в какой-то мере понизить за счет опытной выборки, например, 10 или 20 пар сайтов, но тогда могут вылезти постановочные проблемы, например, ошибки в оценке текстовой релевантности. Словом, такая схема не выделяет чистый траст (если таковой и существет). :)