- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Уважаемые коллеги, друзья. Достаточно давно запускал в тестирование анализатор ссылок. Теперь его немножко доанонсирую - поскольку тестирование его закончено.
Итак, в сервисе просто вводите страницу, на которой куплена ссылка, и отмечаете галочками параметры проверки, после нажатия GO вам предоставляется отчет:
- прямые ссылки без ограничения действия,
- ссылки внутри noindex,
- ссылки с nofollow,
- ссылки на странице, не подлежащей индексации,
- ссылки средствами java script,
- внутренние ссылки.
Ну и, что наиболее важно сейчас, Вы НЕ увидите ссылки, если на странице есть клоакинг, подтасовки контента и ссылок. Тоесть, если Вы покупаете ссылки, а они показываются для броузеров, но прячутся для поисковиков - сервис их так же не покажет. Опционально - сервис готовился для новичков, но с удивлением слышали благодарности уже от многих - кто за антиклоакинг хвалит, кому noindex удобнее искать, и так далее. Вот думаем, нужно ли делать массовую проверку, сервис мониторинга несколько раз в сутки, в том числе на излишек ссылок на страницах, ограничения действий, и так далее, еще чтото..
Ну и как обычно, сервис бесплатен в данном виде.
Пожелания и предложения приветствуются, пользуйтесь на здоровье.
собственно сам сервис - seorch.ru/cms/p.php
Определенно нужно.
В добавления к существующим программам помогающим вычистить тысячи ссылок сап и ксап эта программа будет хорошим и очень нужным дополнением, которое может помочь сократить бюджеты и стабилизировать результаты.
P.S. я бы еще добавил проверку на размер шрифта, просто некоторые хитрецы размещают ссылки с 4 или 7 шрифтом, долго такие страницы не проживут, так зачем их покупать.
SeoTron, Сделайте пакетную проверку :)
Пожелания
На сапе попадался клоакинг по реферу с сапы или сапофорума.
Вот проверка на клоакинг по рефкам с популярных бирж ссылок была-бы полезна.
http://liveinternet.ru/click
внутренняя или с ограничением действия?
хотя в индексе яндекса она есть
kxk, думаем об этом
Алексей Барыкин, хорошая идея вообще - по нескольким рефам проверять - но это тогда придется еще ip адреса брать, потому что если с одного ip за несколько секунд несколько поисковых рефов придут - это грусно.. вобщем подумаем..
unodj, Вы имеете в виду редиректные ссылки через li? если да - то это защитывается как за обычную внешнюю ссылку на лайвинтернет. Если я правильно Вас понял.
mr.mixer, да до Вас вот еще написали с той же проблемой - отвечаю - если на странице есть управляющая структура meta - с параметрами (index для robots) - то скрипт ее неправильно определяет изза заглавных/прописных букв. В понедельник поправим как программисты на работу выйдут..
unodj, Вы имеете в виду редиректные ссылки через li? если да - то это защитывается как за обычную внешнюю ссылку на лайвинтернет. Если я правильно Вас понял.
нет
ссылка со счетчика почему то попала в список внутренних ссылок
опционально - ссылка liveinternet формируется скриптом ( в тегах < script type="text/javascript" > - ), поэтому ссылке не присваевается статус - "без ограничения действия", java script любые ссылки так, они попадают в js ссылки и внутренние (там уже не важно, мы просто для справки их выводим). Если сомневаетесь - давайте страничку (можно в личку), проверим.
SeoTron добавил 09.06.2008 в 12:06
mr.mixer, и еще несколько человек - неточность с определением запрета/запрещения индексации страницы в которой есть meta теги управления для роботов поправлена.
SeoTron добавил 09.06.2008 в 12:07
в смысле, несколько человек, которые в личку писали )))
Прикольная тема :)
Не хватает пакетной проверки ссылок. Например, вводим список проверяемых страниц и адрес акцептора А в ответ табличка для каждой страницы с числом внешних и наличием/отстутствием ссылки на наш сайт. Как-то так...Правда тут хотелось бы и тематику тех ссылок видеть...