- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Интеграция с биржами?
тогда это будет еще более мощный инструмент.
вообще, о программе нужно сказать, что она очень помогает при отборе доноров, и для более эффективного использования ссылочного бюджета.
очень сильно экономит время.
лучше всего - проверять в ней доноров уже после проверки Sape Masterом.
вообще, название темы не совсем верное - Кто что слышал о программе Fast Trust?
про нее не нужно слушать, ее работу нужно увидеть.
вообще, название темы не совсем верное - Кто что слышал о программе Fast Trust?
Дык вопрос то задавался, когда про неё, кроме бетатестеров практически никто и не знал... Пришла весть в рассылке от Yazzlе, посмотрели на форуме - темы нет... ну и создали с целью испросить что за зверь такой. )
Избавился при помощи инструмента от санкций Google за Г-ссылки
Отправил в инструмент отклонения ссылок 80% ссылочной массы. Импортировал всю сапу (кро сапы еще прилично ГГЛ и миралинкс покупал) + по базе solomono все экспортировал. Удалил пересечения.
В файл отклонения попало 80% от этой ссылочной массы (365 ссылок). Выбирал с трастом ниже 10 и спамом выше 5 (и то и другое, а не одновременно).
Всего через неделю пришел ответ от Гугла, что санкции сняты. Буду теперь наблюдать за позициями и трафиком.
Могу помочь с отсевом низкокачественных ссылок, пишите на promoprosperity@gmail.com
На сайт наложены санкции от гугла. В вебмастере в качестве примера спамной ссылки был указан сайт http://www.koros-plast.ru/ при этом FastTrust показывает: Траст 41, Спам: 7,71... То есть выявить при помощи Фаст-Траста некачественные ссылки не удастся, покупкой разочарован...
CopySeo, если вы на сайте читали объяснение значений параметров, то знаете что СПАМ 7,71, это сайт который находится в зоне риска.
я когда отбираю стараюсь оставить площадки только в зеленой зоне.
да и ручками после чистки пройтись не мешает.
В вебмастере в качестве примера спамной ссылки был указан сайт http://www.koros-plast.ru/ при этом FastTrust показывает: Траст 41, Спам: 7,71...
Спамная ссылка - это не равно заспамленный сайт.
Спамные ссылки по мнению Google - это "ссылки, которые вводят в заблуждение поисковых роботов или используются для манипулирования показателями".
Про качество тут не слова.
Так что вот в этом:
То есть выявить при помощи Фаст-Траста некачественные ссылки не удастся
Вы не правы.
Добрый день
Ответьте, пожалуйста, на несколько вопросов:
1. >SEMrush - данные с сервиса Semrush.com:
Можно ли выбирать страну http://f3.s.qip.ru/cMfvUEpA.jpg или в программе вшито RU?
2. >SeoMoz - данные с сервиса opensiteexplorer.org (moz.com):
Собираетесь ли вы добавлять парсинг MozTrust, DomainTrust - показатели аналогичные маджестику, но формула должна быть немного другая?
3. Будет ли добавлена видимость по Prodvigator.ua?
4. Интересует также парсинг счетчиков помимо Ли.ру, а именно top.Bigmir.net, top.mail.ru, top100.rambler.ru?
5. Исходящие ссылки сайта сейчас из Ахрефс парсятся через апи или через доступ к акк через логин и пароль?
Если через апи, то можно ли через логин и пароль, т.к. апи довольно дорогое?
Хочется видеть побольше функционала для Буржунета (сша+запад европа) и Уанета.
1. >SEMrush - данные с сервиса Semrush.com:
Можно ли выбирать страну http://f3.s.qip.ru/cMfvUEpA.jpg или в программе вшито RU?
Только RU.
Я так понимаю, вам надо UA или что-то еще?
Сделать не сложно, поставлю в работу.
2. >SeoMoz - данные с сервиса opensiteexplorer.org (moz.com):
Собираетесь ли вы добавлять парсинг MozTrust, DomainTrust - показатели аналогичные маджестику, но формула должна быть немного другая?
Этих данных нет в бесплатной версии API :( http://moz.com/products/api/pricing
3. Будет ли добавлена видимость по Prodvigator.ua?
Не планировали, но добавить можно. Не хватает spywords.ru?
4. Интересует также парсинг счетчиков помимо Ли.ру, а именно top.Bigmir.net, top.mail.ru, top100.rambler.ru?
Этого, скорее всего, не будет. Они не популярные, сейчас все больше от счетчиков отказываются в пользу Метрики или Аналитикса, но LI по старой памяти все еще юзают. Остальные...хз...
5. Исходящие ссылки сайта сейчас из Ахрефс парсятся через апи или через доступ к акк через логин и пароль?
Если через апи, то можно ли через логин и пароль, т.к. апи довольно дорогое?
Парсится тупо через веб-морду, в АПИ нет необходимых данных. Доступ через логин-пароль.
С поддержкой общался, говорят, что скоро выйдет обновление API, добавят туда то, что нам необходимо, так же сделают возможность работать с API указав логин/пароль. Сам очень жду этого.
Следите за новостями.
Хочется видеть побольше функционала для Буржунета (сша+запад европа) и Уанета.
Так давайте общаться, предлагайте идеи, реализовать-то можно что угодно. Просто надо понимать, что это не только вам надо, иначе мы рискуем погрязнуть в огромном количестве ненужных значений.
Пожалуйста не примазывайтесь к нашему сервису, ваш недотраст не связан ни с доверием пс Яндекса ни с доверием пс Гугл, вы сами это подтвердили.. Поэтому трастом это быть не может никак..
Уважаемый Harius, скажите, пожалуйста, а есть ли у Xtool'а такой вариант, чтобы закачать в него сразу все бэки из ЯВМ или ГВМ и найти плохие? Я пользуюсь онлайн-сервисом, но там ограниченное число определений, да и не годится он для массовой проверки. Нужно, чтобы был не плагин и не надстройка к Sape, а именно программа (онлайновая или оффлайновая - неважно), работающая со списком. И если есть, сколько стоит?
Думаю, это не только мне будет интересно, поэтому спрашиваю на форуме, а не в личном сообщении.
В целом прогу скорее стоит рассматривать как отсев самых ГС и формирование блек листов. Как инструмент для отбора качественных ссылочных доноров данный софт может работать только при очень сильной интеграцией с мозгом.
Что-то у вас не то вышло. Только начал собирать вайтлист УЖЕ 2100 сайтов с траст 60-100.