- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
перепроверка PR в системе идет, но она очень долгая, так как гугль ужесточил доступ.
Самое главное что бы имелись не только вышеперечисленные возможности, они есть у многих программ, но и редактирование тех ссылок которые не подходят сразу после проверки, желательно так же сортировка по параметрам.
Простите, но не понял чуть-чуть, что вы имеете в виду, под редактированием неподходящих ссылок. Они будут подсвечены красным фоном. Сортировка по всем параметрам естественно включена.
Перешел на http://www.webadv.ru/. Ввел своё мыло. Нажал на зеленую кнопочку, а оно мне "Неверно введен адрес почты" 😡
Скорее всего, адрес содержал точку до символа "@". Сейчас исправлено, такие адреса можно вводить.
Да, еще не помешает проверка на команду гугла info: для проверки на склейку и количество ссылок по yahoo и гуглу.
На данный момент проверка на склейку проходит. Количество ссылок в релизе будет показываться по Яху, Гуглу и МСН.
Простите, но не понял чуть-чуть, что вы имеете в виду, под редактированием неподходящих ссылок. Они будут подсвечены красным фоном. Сортировка по всем параметрам естественно включена.
Я имел ввиду, что можно будет удалять, ссылки непосредственно после их проверки, не заходя для этого в аккаунт sape.
Объясните алгоритм работы системы плз.
Я имел ввиду, что можно будет удалять, ссылки непосредственно после их проверки, не заходя для этого в аккаунт sape.
Объясните алгоритм работы системы плз.
Ну, вот теперь понятнее стало.
К сожалению, аккаунт Sape и других бирж использоваться не будет по вопросам безопасности. Сервер для WebAdv настроен по всей безопасности, все модули системы проверяются в обязательном порядке на возможные уязвимости, но мы, конечно, не можем дать 100% безопасности всех данных клиентов, потому что сами понимаете, в интернете разное бывает. Поэтому мы стараемся избегать использования любой конфиденциальной информации.
В принципе не все так страшно, потому что данный вопрос от части решен. Для того, чтобы экспортировать ссылки из Sape в .txt файле потребуется около 1 минуты. Импорт в систему предусмотрен таким форматом. Так же, на данный момент, в базе содержится информация о тИЦ и PR 1 800 000 русскоязычных сайтов за последние 6 месяцев, которая покажет изменения тИЦ и PR в цифрах.
Временно предусмотрен системный фильтр, который подсвечивает некачественные ссылки отдельным цветом, показывая почему система приняла донорскую страницу за не совсем хорошую. Предусмотрено расширение данного списка и его экспорт в .txt файле для того, чтобы можно было внести его в черный список нужной биржи. Существует возможность постоянной слежки за выбранными сайтами для анализа качества их ссылок.
В среднем по времени получается около 5 минут на проверку всех характеристик для 100 ссылок. На данный момент суммарная емкость каналов, предоставленных для системы, составляет более 320 мегабит, более 20 ip адресов и несколько независимых ip подсетей для получения данных с поисковых систем.
Я думаю, я смог ответить на ваш вопрос.
Это не совсем то, что нужно.
Очень много программ, которые могут проверить большинство необходимых показателей.
Однако нет программ, которые могли бы эту проверку совместить с работой Sape:
-позволить избежать ручной выгрузки ссылок,
-обратной загрузки,
-формирования блек-листов,
-формирования листов с ссылками ПР, которых не соответствует (по-хорошему, весь сайт в БЛ за несоответствие одной страницы можно и не отправлять, можно сделать отдельные списки страниц, ПР, которых не соответствует и соответственно при покупке с помощью программы отсекать только эти страницы, а не сайты целиком),
-формирования истории ссылок (можно автоматически учитывать дату покупки ссылки на бирже – сразу после создания предлагать проверять на наличие страницы в Поисковых системах, на клееный ПР, на несоответствующий ПР, на кол-во внешних ссылок, на noindex и т.д., то есть сразу отсекать недостойные сайты и страницы, а через 2-4 недели после покупки и первой проверки предлагать проверку на проиндексированность ссылки – то есть сделать так, чтобы программа сама следила за изменениями в ссылках и предлагала наиболее подходящие варианты проверки параметров, по хорошему, для этого человек не нужен, от человека требуется только настроить программу по своим предпочтениям и следить за ее работой.
Именно в автоматизации работы с Сапе (другими биржами) и заключается необходимость такого софта, который нужен оптимизаторам сейчас (по крайней мере мне).
Бабла на этом действительно много можно срубить, если сервис будет качественный. Потому что за счет таких программ можно много денег и времени сэкономить.
Кстати Semonitor, Yazzle - уважаемые разработчики этих и других продуктов, у Вас уже сделано пол дела - есть готовые модули для проверки параметров ссылок (у semonitora - практически все кроме проверки на ХСС и склейки ПР) - но нет прямой работы с биржами (в частности с Sape). А если и есть (как например у Yazzle), то интеграция с биржей неполная. Нет работы с блек-листом, нет других функций позволяющих автоматизировать работу с Sape.
Сама биржа – Sape, на мой взгляд, тоже заинтересована в разработке таких настольных пользовательских программ. По многим причинам:
Сделав качественный софт, из него можно сделать практически часть биржи.
Результаты проверки всех пользователей можно собирать на сервере, обобщать и использовать для более быстрого подсчета ПР и других показателей. Сами пользователи своими ресурсами могут очистить систему от мусора и решить проблему с долгим пересчетом ПР.
Кроме того, тысячи установленных копий прогаммы sape на компьютерах пользователей – это огромный вычислительный ресурс. Система может использовать его и в других целях. Возможности применения такого вычислительного ресурса велики - задач, которые можно решить в SEO, имея тысячи компьютеров, очень много – весь вопрос лишь в талантливых программистах и сервисе, который объединит всех заинтересованных лиц.
перепроверка PR в системе идет, но она очень долгая, так как гугль ужесточил доступ.
Поплакаться захотелось - на сайте где пару сот страниц с ПР система определила ПР0 на всех внутрених.
Заказал перепроверку (в феврале) - система определила ПР0 на все внутренних.
Заказал перепроверку (в феврале) - система определила ПР0 на все внутренних.
Заказал перепроверку (в феврале) - система определила ПР0 на все внутренних.
Надоело заказывать, теперь так продаю).
Сайт aforism.info.
Меня заинтересовала тема.
Сама биржа – Sape, на мой взгляд, тоже заинтересована в разработке таких настольных пользовательских программ.
Согласен.
Avelon, а есть ли у Вас в планах написать API для Sape?
Или предусмотреть второй логин/пароль для работы с системой, при недоступности управления финансами под ними. Как я знаю, гостевой доступ уже есть. Вот я и предлагаю сделать второй уровень доступа - работа без финансов и без возможности добавления-удаления проектов. То есть чисто для управления ссылок.
Правда парсинг будет генерировать нагрузку на сервер, поэтому в идеале тот-же API, допустим, выдача в XML.
Как правильно заметил MeLFin, часть работы системы по своевременной поверки параметров можно возложить на этот софт, используя мощность, канал и уникальность ИП пользовательских ПК.
В конечном счёте, желание проверять большое количество параметров по Гуглу/Яше неизменно приведёт к использованию распределённых ресурсов. Так как логично предположить, что требования ПС на пакетную проверку будет только ужесточаться.
А если утилиту сделать платную, и получить ПОЛНУЮ поддержку SAPE (в основном на рекламу среди пользователей) то это, ИМХО, очень хорошая идея.
MeLFin, как уже сказал N_MONax полное взаимодействие с системой можно сделать только при существовании доступа к бирже без доступа к финансовой части и при XML выдаче.
Пока такого не существует есть только 2 пути:
- небезопасная работа с биржой используя логин-пароль и парсинг страниц, что тоже будет давать сбои, потому что XML - самая разумная форма передачи информации
- работа с экспортом-импортом. Мы пошли по этому пути, посчитав его на данный период времени самым разумным.
Это не совсем то, что нужно.
Очень много программ, которые могут проверить большинство необходимых показателей.
Однако нет программ, которые могли бы эту проверку совместить с работой Sape:
Полностью согласен. Интересует именно такой сервис, в другом случае сервис теряет для меня всякую привлекательность. Кстати здесь: /ru/forum/145489 человек обещает именно то что нужно, по крайней мере мне. Вручную я могу и в семониторе проверить, другое дело как это все запихать обратно, и опять удалять ненужные ссылки, потом искать снова, снова отсевать... И так по 60 проектам*5 минут - очень много...
Как я понял, на данный момент актуальна утилита, которая:
1. Просит выбрать проект
2. эмулирует поиск сапе (то есть получает массив тех ссылок, которая выдаёт Сапа при поиске по соответствующим параметрам)
3. Проверяет все ссылки на актуальность параметров.
4. Выделяет, например, четырьмя цветам ссылки которые:
- зелёным - полностью совпадает с желаемым.
- синим - где показатели выше желаемых.
- желтым - где показатели ниже желаемых.
- красным - некачественный сайт (ноуиндекс, клей, бан и т.д.)
5. Покупает подходящие ссылки
6. Позволяет делать такую проверку по любым проектам (точнее по купленным ссылкам в них)
7. При надобности, удаляет уже купленные но некачественные ссылки.
Плюс поддержка других фишек: БЛ, проверка индексации ссылок и так далее.
Анализируя дальше, приходим к выводу, что для идеальной реализации этого требуется:
1. получать из Sape всего два фида:
- результатов поиска,
- имеющихся ссылок на проект.
2. структурировать логику покупки - удаления (не уверен, может это уже сделано). То есть в фиде к каждой ссылке добавить Id, и
при buy.php?id=XXX купить ссылку XXX,
при del.php?id=XXX удалить ссылку XXX,
при ban.php?id=XXX добавить в БЛ ссылку XXX и так далее.
Для доступа к фиду использовать логин/пароль без доступа к финансам.
Вот такой вот анализ.