brunoid

Рейтинг
143
Регистрация
14.10.2008
MASe:
тогда, по идее, и robots.txt должна смотреть на наличие "nofollow"

будет смотреть, просто я хочу что б люди сейчас потестили ее чуть, косяков наковыряли и потом .. с новым багажом багов я продолжу ее доделывать.

Апокалипсис:
Если пишите полезные проги, могу дать идею: дёргалка всех ссылок с сайта - в массив. Просто и вывод на экран с указанем уровня вложенности.:) УВ до 3 включительно. И дубли отсеять :)

да, это не сложно. Это должна быть отдельная прога - которая по заданой урл соберет все ссылки и отобразит их в дереве вложенности html тегов ?

ну вот как и обещал - Link Watchdog 1.0

Прога еще напильником не обтесана, но минимальную работу уже выполняет, а именно -

проверяет :

1. Или установлена ссылка на заданной странице

2. Проверяет мета тег Robots на nofollow и noindex

3. Проверяет на обрамляющий тег <NOINDEX>

4. Проверяет rel="nofollow"

Очень требуется ваше тестирование, ибо самому сложно все кейсы составить. Если прога вам понравится, буду ее развивать дальше.

P.S.

Что пока запланировано доработать - можно увидеть в колонках таблицы со значениями "TODO"

Скачать бетку можно здесь - Link Watchdog 1.0 beta

ВашХостинг:
Займитесь, так как программа много кому нужна, есть аналог, но он стоит очень дорого, да и аналог - модуль к одной программе, от которой мне ничего кроме этой функции не надо :)

Как сделаете - сообщите :)

давайте обсудим ТЗ, дабы мне граблей избежать при написании.

Как я представляю себе это дело - есть минимальный GUI с возможностью добавления/редактирования инфы про ссылки, то есть:

url страницы где находится сcылка

инфа по идентификации самой ссылки(например url)

в прогу можно добавлять неограниченное число ссылок для мониторинга. Мониторинг можно инвокнуть в ручную(например кнопкой Validate) или же заскедулить по расписанию.

Что еще ?

brunoid добавил 17.02.2009 в 22:32

я стартанул написание этой проги. Как будет что показать - отпишусь тут

ВашХостинг:


brunoid, можно сделать программу, например при обмене ссылок, вторая сторона может снять ссылку или в тег noindex или в robots спрятать, а программа автоматически проверяла бы наличие ссылки. Тем самым всё врусную проходить не надо было.

легко ! можно заняться

видать какой то студент в гугле с прод сайтом поигрался :)

NeMaster:
Имненно и про разделы не забывай, не только морду качай.

спасибо ! нужно будет заняться этим со всей серьезностью.

А такой вот вопрос - если сайт каждый день обновлять(к сожалению неуникальным контентом - он берется у партнеров(описание программ)) - то со временем можно будет получить траф без внешней оптимизации ?

P.S.

тут напрашивается ответ - "можно будет получить бан", но я ничего противозаконного не делаю, а всего лишь размещаю инфу предоставленную партнерами.

Jooz, woq спасибо ! Я отправил в личку линк

44px:
Что-то вы совсем не упомянули про НЧ-запросы. А ведь для софтового каталога можно довольно много собирать НЧ-трафа и это буде гораздо лучше, чем парочка СЧ-запросов.

По топику - если не бросите сайт и продолжите его развивать, трафик будет только расти. Главное - терпение и настойчивость ;)

44px, спасибо за инфу !

оо.. раньше PR был равен 1, затем как у всех ушел в 0, а сегодня мне снова вернули мою 1 !

Всего: 631