ahrefs

Рейтинг
22
Регистрация
09.04.2011
Alex_I:
Повторю свои вопросы:

1. Собираетесь ли определять язык страниц, с которых стоят беклинки и показывать эту инфу (общее количество)?

Пока нет. Если будет много запросов таких функций, то сделаем.

Alex_I:
2. Также интересует разделение ссылочной массы по доменам.

Подробней, пожалуйста, что вы имеете в виду? Это не то, что мы уже показываем в Referring domains?

Gromodort:
купил за 79 долларов на месяц доступ к сервису для проверки. оплатил с кредитной карты. ровно через месяц произошло повторное автоматическое списание средств с моей карты, хотя я не каких повторных оплат производить не собирался. написал в сервис и в 2com через который проводятся оплаты. пообещали вернуть средства и почему то с аккаунта оплаченные деньги испарились но обратно ничего не вернулось. написал второй раз и получил ответ типа разбирайтесь с банком которому принадлежит карта. я так и не понял куда пропали финансы. не доступа не денег. не сказать что сильно пострадал в бюджете просто как то с опаской теперь отношусь к сервису.

У нас продаются подписки, покупая подписку, вы соглашаетесь продлевать аккаунт ежемесячно, пока не откажетесь от подписки. То есть, автоматическое снятие должно было быть, с этим проблем нет.

В данном случае проблема с задержкой возврата денег на карту. В этой процедуре участвует 2checkout и ваш банк. Мы не можем никак повлиять. Скорость зависит скорее от вашего банка. В тестах с paypal мы получали деньги обратно за сутки, что показывает, что 2checkout делает свою часть работы довольно быстро.

Gromodort:
осталось 14000 юнитов. хочу хоть их использовать с толком. добавил api возможности в toolbar seoquake. тока немного не разобрал что к чему. хотелось бы подробнее понять что значат параметры:
govD, eduD, govL,eduL, refclassC, nfl, r, iL, не могли бы вы в крации обьяснить что к чему.

govD - .gov Domains

eduD - .edu Domains

refclassC - Referring ClassC SubNets

govL - .gov Backlinks

eduL - .edu Backlinks

nfl - NoFollow Backlinks

R - Redirects

IL - Images

Все подробно расписано здесь - https://ahrefs.com/labs/toolbar_integration.php .

suraev:
Подскажите, почему ваш бот не слушается запретов, прописанных в robots.txt? Пришлось его наказать и отключить на уровне .htaccess

Скорее всего, он просто не успел обновить список запретов из robots.txt

Red-Lizard:
Отличная новость.
Ещё есть небольшие проблемы с отображением символов

Проблемы с кодировками решили, теперь все отображается правильно.

Alex_I:
Спасибо за сервис, очень нравится.

Собираетесь ли вы в какой из вкладок в кратком виде выводить такую инфу

1. На какое кол-во страницы сайта есть беки?
2. И какое кол-во беков на морду, а какое на внутряк?

Спасибо за положительную оценку! :)

1. Подумаем.

2. Эти данные доступны и сейчас. Можно сначала проверить домен в search scope с указанием exact url - покажет все ссылки на морду, потом в search scope выбрать domain without (или with - в зависимости от проверяемого домена) subdomains - покажет общее число, отняв от общего числа только кол-во ссылок на домен получим кол-во ссылок на внутренние страницы.

Появилась возможность добавлять параметры Ahrefs API в свой SeoQuake тулбар. Теперь данные по количеству ссылок, ссылающихся доменов и IP всегда под рукой - http://ahrefs.com/api/toolbar_integration.php .

Red-Lizard:
Добрый вечер.
После обновления сервиса, он стал искать значительно меньше бэков. Можете подсказать, чем это вызвано?

Мы переключили Site Explorer на новый индекс. В этот индекс изначально собрали информацию из 1.5млрд страниц, которые имеют хорошие позиции в Google, Bing и Yahoo, либо на них есть ссылки со страниц, которые имеют трафик из Google, Bing и Yahoo. Индекс получился меньше по размеру, но качество проиндексированных страниц высокое. Сегодня мы расширим зону индексации, тем самым начнём быстро наращивать базу. То есть, с каждым днём мы будем находить все больше и больше ссылок.

mazya:
И это не все. У меня уже 12+ часов обновляется отчет в "Domain Reports".

Была временная проблема, сейчас отчеты строятся и обновляются без проблем. Кстати, они пока строятся по нашему старому индексу, в котором собрана информация из около 70 млрд. страниц.

mazya:
Это плюс. Туда будут входить только новые найденые или еще перепроверенные (с "Refresh date" того дня)?

Только новые найденные.

mazya:
Пропадут ли по АПИ в бэклинках ссылки с "http://www.site" при проверки "http://site"?

При проверке "http://site" "http://www.site" для него будут считаться Interrnal, то есть, пропадут.

mazya:
Можете еще в предновогоднем обновлении в функцию получения бэков через АПИ добавить возможность указывать сортировку не по параметру Rage Rating, как сейчас, а еще и по Crawled date.

Будет возможность забирать новые ссылки за определённую дату. Что же касается сортировки по дате, таковая пока не планируется, на данный момент она не настолько затребована. Будет более качественный рейтинг, позволяющий выделить самые качественные страницы, а после уже отсортировать по личному усмотрению.

Ascot:
Тогда уж и PR доноров нужно вывести в разделе Backlinks и сразу сортировать по PR, это возможно?

Еще раз хочу отметить, что мы показываем свой собственный рейтинг, а не PR от гугл.

Всего: 42