- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Почему оптимизатор должен платить за то, чтобы сайт вебмастера не ушел под АГС?
Оптимизатор не должен за это платить. Но если он хочет, чтобы его ссылки работали, в его интересах наличие в бирже механизма, который способствовал бы снятию никому не нужных ссылок на сайтах. Вы можете предложить иное решение этого вопроса? Или просто потрепаться зашли?
Следить за своим сайтом должен владелец, т.е. вебмастер
Что Вы вкладываете в понятие "следить за своим сайтом"?
Ничего не предлагаю, но это явно идет вразрез с этическими нормами
Какие этические нормы запрещают вебмастеру распоряжаться статьями и ссылками на своём сайте? Какие этические нормы нарушил вебмастер, который 3 года бесплатно держал на своём сайте ссылку оптимизатора?
Что-то я очень сомневаюсь, что за 10% все сайты вэбмастеров станут кристально чистыми и не заспамленными.
По итогу платить придется больше, а сайты так и будут скатываться до уровня ГС, часть ссылок будет также пропадать, а часть сайтов закрываться. Ведь мощные порталы как работали, так и работают. А вот сайты изначально созданные для заработка исключительно на ссылках, уходят под АГС. Ибо такая бизнес-модель изначально не рассчитана на «вечное» существование.
Ведь мощные порталы как работали, так и работают
Вы вообще в курсе происходящего?
Именно "мощные порталы", как Вы их называете, уже четвёртый месяц массово уходят под АГС за торговлю ссылками. Вы хоть раз в месяц с новостями знакомитесь?
P.S. Кто-нибудь знает, откуда взялись все эти девственные люди?
При скрытии URL к общему лимиту заявок прибавляется 20%.
Нормальные сайты без всяких лимитов, много не получат.
Назрел вопрос, почему в последнее время так коряво работает показатель ссылочности? Имеется в виду определение количества страниц в индексе Яндекса. В том же PR-CY.ru от того же Мирафокс число страниц определяется совершенно верно. В Миралинкс тоже с этим проблем не возникало.
Привожу примеры:
Сайт1 - по GGL якобы 3000 страниц, по PR-CY - 4169.
Сайт2 - по GGL якобы 2000 страниц, по PR-CY - 2294.
Сайт3 - по GGL якобы 1000 страниц, по PR-CY - 1281.
К чему это приводит? Показатель ссылочности отображает некорректные данные и перестает быть объективным. В результате значительно падает показатель траста. Оптимизаторы меньше покупают ссылки и начинают снимать ссылки с хороших сайтов.
Почему бы не использовать проверку кол-ва страниц в индексе по тому же методу, как на PR-CY или Миралинкс?
Назрел вопрос, почему в последнее время так коряво работает показатель ссылочности? Имеется в виду определение количества страниц в индексе Яндекса. В том же PR-CY.ru от того же Мирафокс число страниц определяется совершенно верно. В Миралинкс тоже с этим проблем не возникало.
Привожу примеры:
Сайт1 - по GGL якобы 3000 страниц, по PR-CY - 4169.
Сайт2 - по GGL якобы 2000 страниц, по PR-CY - 2294.
Сайт3 - по GGL якобы 1000 страниц, по PR-CY - 1281.
К чему это приводит? Показатель ссылочности отображает некорректные данные и перестает быть объективным. В результате значительно падает показатель траста. Оптимизаторы меньше покупают ссылки и начинают снимать ссылки с хороших сайтов.
Почему бы не использовать проверку кол-ва страниц в индексе по тому же методу, как на PR-CY или Миралинкс?
Вероятно потому, что руководство ГГЛ считает себя всех умнее и ни на кого не ровняется. Увы, траст весь построен на кривых параметрах, но при попытке уточнить детали и указать на явные косяки (о которых не единожды указывали и на форуме, в частности кривость Маджестика для варианта с http://, www, без www. - 3 разных вариант итоговой цифры), ТП морозится, делая из этого величайшую тайну. Ссылочность из той же оперы определяется по своим собственным алгоритмам, чаще всего коряво.
В Мире и GetGoodRank, и определение ссылочности на много порядков логичнее и актуальнее. Но, увы, чья-то гордыня не позволяет использовать эти наработки.
Года 3-4 назад они продавали ссылки по 200-300 рублей. Теперь же снимают ссылки с возвратом суммы и продают снова в тех же статьях, но уже за 2000. Это тоже норма?
Вы часом биржи не попутали? Тут размещаются только ссылки и краткие обзоры с ссылками. А статьи - это полностью продукт владельца сайта. И не вам указывать, что вебмастеру с ними делать.
Назрел вопрос, почему в последнее время так коряво работает показатель ссылочности? Имеется в виду определение количества страниц в индексе Яндекса. В том же PR-CY.ru от того же Мирафокс число страниц определяется совершенно верно.
Проверка индексации идет непосредственно в Яндексе, не через сервисы проверки. Система делает xml и host запросы. Проблема может возникать, если Яндекс дает некорректный ответ и все решается простой перепроверкой..
---------- Добавлено 22.12.2015 в 11:58 ----------
Ссылочность из той же оперы определяется по своим собственным алгоритмам, чаще всего коряво.
Соотношение размещенных ссылок в GGL к количеству проиндексированных страниц. Никакой "кривости".
Такой же алгоритм и в Миралинкс.
Проверка индексации идет непосредственно в Яндексе, не через сервисы проверки. Система делает xml и host запросы. Проблема может возникать, если Яндекс дает некорректный ответ и все решается простой перепроверкой..
Спасибо за ответ. Я знаю, как проверяется индексация в вашей системе.
С точки зрения практики: Яндекс очень часто выдает некорректные данные. В результате страдают и вебмастера, и оптимизаторы.
Я уже устал обращаться в поддержку, чтобы обновить ссылочность после некорректной проверки. Поддержку жалко.
Может быть, есть смысл задуматься над этой проблемой и попробовать более стабильный вариант проверки числа страниц в индексе по типу тех, что используются на Миралинкс/PR-CY?
Соотношение размещенных ссылок в GGL к количеству проиндексированных страниц. Никакой "кривости".
Такой же алгоритм и в Миралинкс.
А почему в Мире всегда с точностью до страницы, а в ГГЛ округленно, часто не в ту сторону?
И вторую часть прокомментируйте пожалуйста. Система использует Majestic, как основу траста.
Простой пример: берем домен site.ru (именно такой) и проверяем его в Маджестике:
http://site.ru имеет 41 49
site.ru имеет 24 34
www.site.ru имеет 21 40
http://www.site.ru имеет 23 38
Т.е. сервис настолько плох, что не в состоянии отображать усредненное значение для домена. 4 разных варианта обращения - 4 разных показателя. Здорово, правда?
Прошу не игнорировать этот вопрос, т.к. ГГЛ 100% не утруждает себя определением главного зеркала сайта. И если у меня например главное зеркало www.site.ru, и все ссылки на него, там Маджестик заоблачный. Но Ваш Траст не берет www.site.ru, он берет site.ru. Т.е. актуальность траста пропадает.
Я уже 10-й раз пытаюсь втолковать это Техподдержке, но там, видимо, в детстве не наигрались в секретики, говорят что это величайшая тайна, как рассчитывается траст и комментировать они не могут.
Будьте так любезны, озвучьте комментарий руководства по этой проблеме.