Анализатор купленных ссылок на страницах, определение клоакинга

SeoTron
На сайте с 19.11.2006
Offline
54
1001

Уважаемые коллеги, друзья. Достаточно давно запускал в тестирование анализатор ссылок. Теперь его немножко доанонсирую - поскольку тестирование его закончено.

Итак, в сервисе просто вводите страницу, на которой куплена ссылка, и отмечаете галочками параметры проверки, после нажатия GO вам предоставляется отчет:

- прямые ссылки без ограничения действия,

- ссылки внутри noindex,

- ссылки с nofollow,

- ссылки на странице, не подлежащей индексации,

- ссылки средствами java script,

- внутренние ссылки.

Ну и, что наиболее важно сейчас, Вы НЕ увидите ссылки, если на странице есть клоакинг, подтасовки контента и ссылок. Тоесть, если Вы покупаете ссылки, а они показываются для броузеров, но прячутся для поисковиков - сервис их так же не покажет. Опционально - сервис готовился для новичков, но с удивлением слышали благодарности уже от многих - кто за антиклоакинг хвалит, кому noindex удобнее искать, и так далее. Вот думаем, нужно ли делать массовую проверку, сервис мониторинга несколько раз в сутки, в том числе на излишек ссылок на страницах, ограничения действий, и так далее, еще чтото..

Ну и как обычно, сервис бесплатен в данном виде.

Пожелания и предложения приветствуются, пользуйтесь на здоровье.

собственно сам сервис - seorch.ru/cms/p.php

Андрей Бондаренко
На сайте с 02.11.2005
Offline
184
#1

Определенно нужно.

В добавления к существующим программам помогающим вычистить тысячи ссылок сап и ксап эта программа будет хорошим и очень нужным дополнением, которое может помочь сократить бюджеты и стабилизировать результаты.

P.S. я бы еще добавил проверку на размер шрифта, просто некоторые хитрецы размещают ссылки с 4 или 7 шрифтом, долго такие страницы не проживут, так зачем их покупать.

kxk
На сайте с 30.01.2005
Offline
990
kxk
#2

SeoTron, Сделайте пакетную проверку :)

Ваш DEVOPS
Алексей Барыкин
На сайте с 04.02.2008
Offline
272
#3

Пожелания

На сапе попадался клоакинг по реферу с сапы или сапофорума.

Вот проверка на клоакинг по рефкам с популярных бирж ссылок была-бы полезна.

unodj
На сайте с 18.09.2007
Offline
47
#4

http://liveinternet.ru/click

внутренняя или с ограничением действия?

mr.mixer
На сайте с 11.12.2007
Offline
108
#5
|страница запрещена для индексирования|

хотя в индексе яндекса она есть

SeoTron
На сайте с 19.11.2006
Offline
54
#6

kxk, думаем об этом

Алексей Барыкин, хорошая идея вообще - по нескольким рефам проверять - но это тогда придется еще ip адреса брать, потому что если с одного ip за несколько секунд несколько поисковых рефов придут - это грусно.. вобщем подумаем..

unodj, Вы имеете в виду редиректные ссылки через li? если да - то это защитывается как за обычную внешнюю ссылку на лайвинтернет. Если я правильно Вас понял.

mr.mixer, да до Вас вот еще написали с той же проблемой - отвечаю - если на странице есть управляющая структура meta - с параметрами (index для robots) - то скрипт ее неправильно определяет изза заглавных/прописных букв. В понедельник поправим как программисты на работу выйдут..

unodj
На сайте с 18.09.2007
Offline
47
#7
SeoTron:

unodj, Вы имеете в виду редиректные ссылки через li? если да - то это защитывается как за обычную внешнюю ссылку на лайвинтернет. Если я правильно Вас понял.

нет

ссылка со счетчика почему то попала в список внутренних ссылок

SeoTron
На сайте с 19.11.2006
Offline
54
#8

опционально - ссылка liveinternet формируется скриптом ( в тегах < script type="text/javascript" > - ), поэтому ссылке не присваевается статус - "без ограничения действия", java script любые ссылки так, они попадают в js ссылки и внутренние (там уже не важно, мы просто для справки их выводим). Если сомневаетесь - давайте страничку (можно в личку), проверим.

SeoTron добавил 09.06.2008 в 12:06

mr.mixer, и еще несколько человек - неточность с определением запрета/запрещения индексации страницы в которой есть meta теги управления для роботов поправлена.

SeoTron добавил 09.06.2008 в 12:07

в смысле, несколько человек, которые в личку писали )))

pavel419
На сайте с 03.05.2006
Offline
313
#9

Прикольная тема :)

Не хватает пакетной проверки ссылок. Например, вводим список проверяемых страниц и адрес акцептора А в ответ табличка для каждой страницы с числом внешних и наличием/отстутствием ссылки на наш сайт. Как-то так...Правда тут хотелось бы и тематику тех ссылок видеть...

@RuSeoBot (http://s419.ru/ruseobot/)- первый seo-бот в Twitter, а теперь - и канал в Telegram (http://s419.ru/servisy/pervyj-poiskovyj-seo-kanal-v-telegram/) Мой сайт про виртуальную реальность (http://vr419.ru/) Как правильно покупать на Алиэкспресс (http://4ali.ru/)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий