- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Уважаемые представители ГГЛ!
Ни в коем случае не умаляя ваш авторитет и т.д., просто довожу свои мысли до вашего сведения (исключительно в информационных целях).
Есть еще мысли. Касательно общего показателя заспамленности.
Мы (владельцы биржи и вебмастера) зарабатываем деньги на оптимизаторах. Оптимизаторы - это такие же клиенты, как клиенты продавца, например, кожаных курток на городском рынке.
Мне кажется, что в погоне за рублем оптимизатора ГГЛ сегодня переходит некую невидимую границу, пытаясь в благих целях, фактически, показать все черные стороны некоторых сайтов.
Это то же самое, что писать на сладостях "ПРИВОДИТ К ДИАБЕТУ", на колбасе - "ПРИВОДИТ К ОЖИРЕНИЮ", а на Кока-Коле "РАЗРУШАЕТ ВАШИ ЗУБЫ". Все знают, что у сладостей, колбасы и Кока-Колы - есть отрицательные действия. Но употреблять или нет - решает сам клиент.
Сегодня у всех оптимизаторов есть все инструменты для анализа доноров. Писать же напротив каждого донора его минусы - это уже слишком.
Мне кажется, что отборочное сито ГГЛ уже само по себе является уникальным барьером на рынке для качественных доноров. А размещать на каком-то сайте или нет ссылки - это уже процесс состязательности для оптимизаторов. Это лично мое мнение, но такой "черный" показатель как заспамленность ссылками - это уже перегиб. Для многих сайтов данный показатель будет несправедливым (см. мой пример с Википедией, где 5 ссылок на каждой странице). Оптимизаторы обладают достаточным инструментарием для анализа доноров.
Не стоит писать на детских пирожных "ПРИВОДИТ К ДИАБЕТУ, ОЖИРЕНИЮ И ГАСТРИТУ".
Это лично моё мнение. Надеюсь, поможет ГГЛ стать лучше!!!!
То есть нормальных сайтов с точки зрение оптимизатора выбора вообще не будет... И как вы думаете, куда пойдет оптимизатор?
А почему оптимизатор уйдет? Из за того что увидит процент заспамленности? И что это получится, оптимизатору лучше там, где этот показатель он не видит? =)
Следующий шаг должны сделать вебмастера - повысить цены на все ссылки по всем сайтам. Думаю справедливо
Ну это само собой, тем более что у меня сайты с хорощими показателями, следовательно цена на фоне общего шлака еще увеличится.
Еще раз нипишу, так как ранее не ответили, возможно не доходчиво объяснил. Например пять лет назад я разместил ссылку в новости. Прошло пять лет, и яндекс ее выкинул из выдачи, ну бывает такое. Параллельно с этим он выкинул еше 20 страниц с ссылками и 20 без них. Следовательно общее количество проиндексированных страниц на 40 меньше, но заспамленность этого не учитывает?
Еще раз нипишу, так как ранее не ответили, возможно не доходчиво объяснил. Например пять лет назад я разместил ссылку в новости. Прошло пять лет, и яндекс ее выкинул из выдачи, ну бывает такое. Параллельно с этим он выкинул еше 20 страниц с ссылками и 20 без них. Следовательно общее количество проиндексированных страниц на 40 меньше, но заспамленность этого не учитывает?
По-хорошему надо учитывать количество размещенных ссылок к текущему количеству страниц. Это чтобы избежать к примеру такой возможной ситуации: вебмастер лепит все ссылки в богом забытый раздел, он выпадает из индекса, у вебмстера 0% ссылочности :)
Так что параметр корректный.
Мне одному кажется что от этого нововведения пострадают "Оптимизаторы".
Смотрите
Я как вебмастер работаю по такой схеме:
Продаю я ссылку, например с сайта у которого тиц 10 за 160 рублей, из них 60 уходит на написание статьи, прибыль 100 руб. Все отлично.
Сейчас, что-бы держать показатель ссылочного на уровне при котором будут покупать ссылки, мне надо размещать 1 статью со ссылкой, другую без. Тоесть из 160 рублей я получу прибыль только 40 (так как мне надо купить две статьи, а это 120 рублей), что не есть гуд. Что мне остается делать? Правильно, повышать цену на ссылку!
Что получаем в итоге: вебмастера подстроются под нововведения, оптимизаторы будут платить за ссылки больше, GGL в шоколаде.
Высшая степень автоматизации
И вот у нас уже есть семантическое ядро с заданием на разработку контента. Короткая корректировка задания, и оно уже уходит в работу на биржу текстов Копилансер. Сотни авторов биржи в сжатые сроки готовят статьи под ваше задание с учетом ключевых фраз, задают title и мета-теги, подбирают изображения к статьям.
Все очень просто, и вы можете управлять своим заданием прямо из интерфейса Gogetlinks, одобрять тексты или отправлять их на доработку и в арбитраж. Неделя, а может быть две, и у вас на руках сотни готовых текстов с картинками, нужными заголовками и тегами.
И вы мне предлагаете заказывать у вас контент? 😂 Какой идиот это писал, выпускник 9-го класса школы для слаборазвитых?
Невозможно читать лендинг, еще поржал над закосом под Эпл. Включить мозг и придумать свое никак?
Еле дочитал до конца, фух... клик-клик, пых-пых, рекомМмендации тых-тых.
Быстрее, выше, сильнее! :D
Еще.
Прямо сегодня, 23 декабря 2014, известный автор разместил на моем сайте статью. Политика, Украина, война и т.д. Автор уважаемый, статья - уник. Всем интересно ее почитать.
Свою статью автор сопроводил 10-ю ссылками на сторонние ресурсы - мол, смотрите, туда и туда в подтверждение моих слов. Это новостные и аналитические сайты, по теме статьи и т.д.
Получается, что мне сейчас надо искусственно и вручную править подобные материалы, делать разлинковку или же мета-теги, запрещающие индексацию и т.д. (не автор же, которому 70 лет, будет это делать!).
Ранее такие статьи, хоть они и делали 10-20 ссылок внешних на сторонние ресурсы, меня не волновали. Это настолько естественные ссылки, что они скорее нравятся поисковикам, нежели НЕТ. А теперь мне придется абсолютно искусственно править такие материалы, чтобы % в ГГЛ был ниже.
Таким образом, контентогенерирующим проектам, которые просто созданы для ГГЛ, делается искусственная и ненужная головная боль.
Я занимаюсь продвижением клиентских сайтов ком. тематик. Само собой, что выбирать нужно менее заспамленные (количество исходящих ссылок, качество исходящих анкоров, тематика, сапа на хосте, порно, живые проекты с трафом), так как нужно запас прочности по качеству ссылочного иметь, ида, если сильно упадет качество ссылок, то и ссылочное на хост хуже работать будет. Время деньги - интерфейс поиска играет огромную роль... Но все идет к рассылке писем сайтам по тематике.
P.S. А биржи делают рассылки инфо сайтам с предложением участвовать в бирже... ?
---------- Добавлено 23.12.2014 в 16:35 ----------
он выпадает из индекса, у вебмстера 0% ссылочности :)
Хм, "Страниц в индексе яндекса - 2000" - округлили в ГГЛ. В вебмастере 2204..
Скоро что ни сайт, то интернет-магазин с мега каталогом товаров. 🙅
Заспмленность = 0,000001%. Профит.