- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Не пойму - написано, что добавлена поддержка кириллических доменов. А в чем это выражается?
Написание Винкс и xn--b1amglv для программы - это разные урлы и одни она отправляет во внешние ссылки, другие во внутренние. В итоге -бардак и неразбериха.
З.Ы. Речь про Лайт-версию..
Не пойму - написано, что добавлена поддержка кириллических доменов. А в чем это выражается?
Написание Винкс и xn--b1amglv для программы - это разные урлы и одни она отправляет во внешние ссылки, другие во внутренние. В итоге -бардак и неразбериха.
З.Ы. Речь про Лайт-версию..
Хм, а зачем у вас на сайте разные ссылки? Сами не путаетесь?
Грубо говоря домен для программы вы задаете при старте сканирования, и все что отличается - считается внешним. Честно говоря даже в голову не пришло проверять на различное написание, ибо обчно все ставят ссылки в едином ключе, т.е. если используется русский домен то и ссылки стоят именно на него.
PS. В будущих версиях сделаем сравнение.
Хм, а зачем у вас на сайте разные ссылки? Сами не путаетесь?
А чего мне путаться - главное, чтоб поисковые роботы не путались...
Не я делаю, движек делает.. Когда я вручную ссылки проставляю -копирую из адресной строки браузера или еще как - пишу кириллицей. А движек про кириллицу ничего не знает - он все перемастрячивает в пуникод. Возможно я не один такой, так что, думаю, сравнение надо.
Еще вопрос - по PageWeight Base - вообще прикола не понял..??
Программа просто собирает ссылки с сайта, показывает код ответа сервера. Т.е. базовый функционал - на уровне Xenu. Про рассчет веса ничего нигде в программе не нашел. Как и не нашел никаких окошек, в которых можно было бы посмотреть что-то подробное, типа "на какой странице->на какую страницу, сколько и т.д.."
Я понимаю. что пока это еще тестовая версия -но что тестить то? Насколько быстро прога ссылки собирает?
Еще вопрос - по PageWeight Base - вообще прикола не понял..??
Программа просто собирает ссылки с сайта, показывает код ответа сервера. Т.е. базовый функционал - на уровне Xenu. Про рассчет веса ничего нигде в программе не нашел. Как и не нашел никаких окошек, в которых можно было бы посмотреть что-то подробное, типа "на какой странице->на какую страницу, сколько и т.д.."
Я понимаю. что пока это еще тестовая версия -но что тестить то? Насколько быстро прога ссылки собирает?
Да, сейчас тестируем именно парсер. Поскольку 90% проблем и пожеланий было связано именно с парсингом, то и парсер выделили в отдельный модуль.
По поводу расчета веса в частности и перелинковки вообще - есть альфа, которая считает, но мы её пока не выкладываем. В модуле перелинковки основная часть (по трудозатратам) не расчет, а функции моделирования, над которыми сейчас работаем.
.. вот.. ну а Base не только ссылки тянет... собственно она потому Базой и обозвана, что на ней еще много чего понастроить можно ;)
Обновил прогу до 1.8.6 стала вылетать с ошибкой при сборе данных. С чем это может быть связано?
Неплохо бы было добавить поддержку прокси, т.к. не всегда работаю дома.
Обновил прогу до 1.8.6 стала вылетать с ошибкой при сборе данных. С чем это может быть связано?
Неплохо бы было добавить поддержку прокси, т.к. не всегда работаю дома.
Напишите в поддержку какой сайт сканируете.
А можно добавить не только вывод списка страниц, которые ссылаются на данную страницу, но и список анкоров под которыми эти ссылки стоят? Так проще будет, причем значительно, контроллировать не только статический вес но и анкорный.
Нормальная ссылка отображается как битая. Кому верить?)
А можно добавить не только вывод списка страниц, которые ссылаются на данную страницу, но и список анкоров под которыми эти ссылки стоят? Так проще будет, причем значительно, контроллировать не только статический вес но и анкорный.
В Lite версии этого делать не будем, в след. версии запланировано.
Нормальная ссылка отображается как битая. Кому верить?)
Программе :) Если "нормальные" ссылки улетают во вкладку "битые" или "внешние", то в 99% случаев это косяк верстки сайта. Посмотрите с каких страниц ведет "битая" ссылка и проверьте код.
PS спарсил Ваш сайт, у Вас "Исключение во время работы... ". Поставьте паузу между запросами побольше - должно нормально спарситься