- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
yanavit, единственный способ выгрузить такое количество ссылок в программу разом - экспортировать их из веб-интерфейса Sape.ru в формат TSV (отметив поля "Id ссылки", "Id урла", "URL страницы", "URL", "Id донора", "Текст ссылки", "Статус", "Дата размещения"). Затем этот файл нужно открыть в табличном процессоре, переименовать колонки следующим образом:
"Id урла" -> "ID Донора"
"URL страницы" -> "Донор"
"URL" -> "Адрес"
и сохранить в формате CSV (разделитель точка с запятой). После чего этот файл можно загрузить через функцию "Импорт таблицы" в программе.
Serg_CS, спасибо, что направили мысль. Только оказалось чуть сложнее :)
Вдруг кому пригодится: в заявках делаем экспорт, потом в экспортной таблице переименовываем столбцы*
_______
Id урла -> ID Акцептора
URL -> Адрес
Id ссылки -> ID Ссылки
Текст ссылки
URL страницы -> Донор
Id сайта/страницы (разбить на столбцы: в OpenOffice Calc это: Данные/текст по столбцам -> разделитель / (слэш))
Id сайта -> ID Сайта
Id страницы -> ID Донора
Дата размещения
Статус
_________
Сохранить как: csv -> разделитель поля ; (точка с запятой)
* обратите внимание на большие буквы в названиях столбцов. Например на такие ппц нюансы: ТиЦ -> тИЦ
Данные авторизации программы устарели. Обратитесь в службу поддержки.
Добрый день! Новая проблема. При проверке большого массива данных выдается такое предупреждение (окно). Как с этим бороться?
1) Есть запрос (пожелание).
Проверяю большое количество ссылок. Заканчивается XML лимит. Жду следующего часа, чтобы продолжить, но для этого надо выделить те ссылки, которые ещё не проверили. Лезу в фильтр "Индексация ссылок в Яндекс" - "Да/нет/не определено". А мне нужно выделить те, которые вообще не проверялись (значение не установлено). Вариант "не определено" выделяет не то, что надо.
2) Ещё было бы неплохо в интерфейсе (например, в контекстном меню) возможность "выделить все ссылки выше текущей"/"ниже текущей".
3) Также в последней сборке при проверке количества проиндексированных страниц в Гугле куче сайтов получил "-1". Возможно, проблемы была в кончившемся бюджете распознавания капч на antigate, хотелось бы всё таки не "-1" в интерфейсе не получать, а какое-то уведомление.
1) Есть запрос (пожелание).
Проверяю большое количество ссылок. Заканчивается XML лимит. Жду следующего часа, чтобы продолжить, но для этого надо выделить те ссылки, которые ещё не проверили. Лезу в фильтр "Индексация ссылок в Яндекс" - "Да/нет/не определено". А мне нужно выделить те, которые вообще не проверялись (значение не установлено). Вариант "не определено" выделяет не то, что надо.
Можно задать время кэша в настройках программы, а затем выбирать для проверки все ссылки со включенным флажком "По возможности брать данные из кэша"
2) Ещё было бы неплохо в интерфейсе (например, в контекстном меню) возможность "выделить все ссылки выше текущей"/"ниже текущей".
Выбираете ссылку, затем shift+home или shift+end для выбора всех ссылок выше или ниже текущей. Затем можно пробелом отметить их флажками, к проверке.
Постоянная проблема при проверке индексации через сеобюджет - показывает в гугл нет в индексе, при ручной перепроверке, донор в индексе. В чем может быть проблема? Так же можно случайно снять кучу рабочих ссылок...
Постоянная проблема при проверке индексации через сеобюджет - показывает в гугл нет в индексе, при ручной перепроверке, донор в индексе. В чем может быть проблема? Так же можно случайно снять кучу рабочих ссылок...
скиньте в службу поддержки или в личку примеры плз по последним проверкам.
может ли ваш скриптик закупать ссылки автоматом по заданным заранее параметрам с минимальным участием пользователя?
отбор по стандартным фильтрам сапы+индексация, алекса, моз маджестик и т.п+ и после этого скрипт покупает ссылку?
может ли ваш скриптик закупать ссылки автоматом по заданным заранее параметрам с минимальным участием пользователя?
отбор по стандартным фильтрам сапы+индексация, алекса, моз маджестик и т.п+ и после этого скрипт покупает ссылку?
Это не скрипт, а десктопная программа. Она может проверять заявки в сапе по этим параметрам в полуручном режиме. В полностью автоматическом это можно сделать на сервисе DriveLink.
nickspring, а у вас нет желания сделать сравнительную таблицу возможностей CS SapeMaster и DriveLink? Думаю многим пригодилось бы.