- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Один сайт с трафом по коммерции, второй траф слабенький и по информационнным запросам в выдаче.
А в ранжировании - небо и земля.
Одинаковые сайты, да :) Говорю же - нужно четко понимать, что такое эксперимент. Присутствующие этого явно не понимают. В частности, что такое одинаковые сайты. И как они вообще делаются для этого.
Ну сделал эксперимент, чего орать. Поулчил результат - молодец.
Вот и я думаю, на кой так аццки "апдейты" засерать?
А по эксперименту, знаю повадки datot'а в экспериментаторстве, он че-нить купил, натвтитерил, накописпастил. Соответственно - скандалы, интриги, расследования, все "апдейты" в "поставил эксперимент", "апдейт штатный" и "привет komdir, перезвони поговорить надо".
А по факту, у первого сайта присвоен регион, а у второго нет, или слетел. Вот первый и собирает гз трафик, а второй - информационный мусор по нч-гнз. Ну, или че-нить в этом духе. Короче, я верю в datot'а.
Позволю себе высказать свое скромное мнение обо всем этом. (ник у меня новый ибо старые были забанены за то, что их было несколько))
Сначала было СЕО, потом появились курсы СЕО, и как следующий этап - продажа результатов экспериментов (типа для шарящих, а не для школоты. кстати именно она и есть основная целевая аудитория ибо думают, что прочитав что-то для опытных дядь начнут шарить). Можно сказать новая ниша.
Но есть нюанс - я не раз и не два проводил эксперименты для себя т.к. нужно идти в ногу с тем чем интересуешься.
Результаты неоднозначны - одни и те же действия приводят к разным результатам. Доходит до маразма - на один и тот же сайт покупаются ссылки - на стр. 1 после прокачки взлет по анкору на 50+ позиций, на стр. 2 - падение на 15 по тем 2 анкорам с кот. прокачались ссылки. Можно рассуждать о разных донорах, но в инете вы не найдете 2 абсолютно идентичные сайта и 2 одинаковые страницы (доноры всегда отбираю по четкой схеме). Отсюда вывод - факторов слишком много (а в экперименте мы рулим несколькими и никак не влияем (даже сказал бы не понимаем) остальные), чтобы понять четко какую-то маленькую часть алгоритма ПС.
jj1981ua, да все факторы того же яндекса у умных людей давно есть. Там правда половина непонятна и все такое. Вопрос таких экспериментов (с одинаковыми сайтами из 1 страницы - причем пачкой) - чтобы проверить работает ли фактор вообще, если списка нет. Допустим, тот же h1. В случае ссылок все еще хитрожопее, но тоже можно многое.
Можно рассуждать о разных донорах, но в инете вы не найдете 2 абсолютно идентичные сайта и 2 одинаковые страницы (доноры всегда отбираю по четкой схеме). Отсюда вывод - факторов слишком много (а в экперименте мы рулим несколькими и никак не влияем (даже сказал бы не понимаем) остальные), чтобы понять четко какую-то маленькую часть алгоритма ПС.
Что мешает сделать 2 нулевых сайта с уникальными, но очень похожими текстами, загнать в индекс, увидеть что они очень близки по полученным позициям, а после этого взять на них ссылки в порядке эксперимента с одного и того-же донора, и посмотреть с каким анкором результат лучше? 🍿
Это как пример, который можно легко масштабировать, для чистоты эксперимента использовать разные запросы, разные домены.
Что мешает сделать 2 нулевых сайта с уникальными, но очень похожими текстами, загнать в индекс, увидеть что они очень близки по полученным позициям, а после этого взять на них ссылки в порядке эксперимента с одного и того-же донора, и посмотреть с каким анкором результат лучше? 🍿
Это как пример, который можно легко масштабировать, для чистоты эксперимента использовать разные запросы, разные домены.
Мешает отсутствие одинаковых страниц-доноров. В зависимости от перелинковки сайта-донора вес разных его страниц не одинаков (не говоря о том что оценить вес страницы-донора это следующий момент).
Интересно, никогда не знал что есть такая проблема. ) И что, выходит, все такие эксперименты пустая трата времени?
Конечно пустая, ориентируйтесь по звёздам
Ну зачем же по звёздам?.. хотя это и бывает точнее всего основанного на гироскопах... но что делать, если пространство перестало быть линейным как вчера?
Хотя мозг массовых оптимизаторов жаждет именно простых вчерашних выводов, часто уже бессмысленных в реальных ситуациях. Вам есть кому их продавать.
Нет, мозг массовых оптимизаторов жаждет мыслей форумных теоретиков
Показательный пример гадания на кофейной гуще
/ru/forum/748865