linkoscop 3 это 30 инструментов для работы с внутренней перелинковкой

besik1976
На сайте с 07.07.2010
Offline
163
#31
Давайте попробуем обозначить.

Ну самые главные это тошнота страницы по ключу и внешний ссылочный вес - это в 2ух словах.

В вашем вопросе - задача с двумя неизвестными. Вы ищете страницу, не зная ее индивидуальных критериев, и хотите потом посмотреть какие ссылки идут с нее. Как же вы хотите, чтобы программа ее угадала? Я лично тоже не понял, что это за страница.

Возможно неправильно выразился)

Есть 20к страниц на сайте, я занимаюсь продвижением страницы A.

Программа проанализировала эти 20к страниц и выдала мне их общим списком, вопрос - как найти страницу А не перелистывая весь список и не ища ее глазками?

Если у вас в итоге ранжируется правильная страница, то по золотому правило seo-шника - "работает, - не трогай!". А вот если вместо целевой морды по запросу "слоны" у вас выходит профиль пользователя - вот вам программы наглядно и демонстрирует, что проблема может быть в распределении статического веса и такого в моей практике было достаточно много.

Эти ваши слова и подтверждают косвенно бесполезность программы в продвижении уже работающих проектов, т.к. она не учитывает ряд факторов. Скажем так, эта программа поможет распределить общий ссылочный вес более правильно на этапе разработки сайта ну и более быстро наращивать ПР страниц.

Ну, дружище, конечно, всех этих условностей программа расчитать не может. Так можно и до выведения общей формулы ранжирования в Яндексе дойти.

Было бы думаю неплохо) Тем более что задатки у разработчиков есть.

А вот то, что я предлагал - сделать сравнение текущего подбора страниц (сравнение релевантности) - с той релевантностью, которая есть в поисковой системе - это необходимо.

Совершенно верно, но опять таки, тут огромное кол во факторов нужно учитывать и опять таки недалеко и до общей формулы ранжирования)

А это анализ другого сайта, который опять таки держит по вч вк топ 3 (естественно главная в серпе)

Антоний Казанский
На сайте с 12.04.2007
Offline
617
#32
besik1976:
Ну самые главные это тошнота страницы по ключу и внешний ссылочный вес - это в 2ух словах.

С тошнотой - в анализе данных программа подсвечивает кол-во употреблений слов.

Я как раз выше писал об этом, если бы разработчики расширили этот перечень метрик, ну, допустим, до уровня http://advego.ru/text/seo/ - было бы, конечно, здорово.

Внешний ссылочный вес - тоже уже говорил, это очень сложно, ибо связано с парсингом бэков, а это очень ресурсоемкий процесс.


Возможно неправильно выразился)

Есть 20к страниц на сайте, я занимаюсь продвижением страницы A.
Программа проанализировала эти 20к страниц и выдала мне их общим списком, вопрос - как найти страницу А не перелистывая весь список и не ища ее глазками?

И все равно непонятно. Продвигаемая страница А должна обладать перечнем определенных признаков, как можно в массиве данных искать элемент, который никак не характеризуется кроме того, что он обозначен вами как А.

Это все равно, что - в папке есть 20K файлов. Один из них - А. Как найти тот A, при условии, что этот файл A сам по себе уникален? Как его отличить от остальных - неизвестно.


Эти ваши слова и подтверждают косвенно бесполезность программы в продвижении уже работающих проектов, т.к. она не учитывает ряд факторов. Скажем так, эта программа поможет распределить общий ссылочный вес более правильно на этапе разработки сайта ну и более быстро наращивать ПР страниц.

Я бы так не сказал. Конечно, чем более зрелый сайт, тем дальше те результаты, которые можно получить при программной итерации сайта. Однако, если оптимизатор сталкивается с тем, что при ранжировании в ПС у него часто переназначается страница, то программа поможет выявить неправильную линковку, если она имеет место.

И этап разработки тоже очень важно. У меня считай каждую неделю - новый клиентский сайт на тарифном региональном продвижении. Кажется и работы там неочень, и ссылок там особо не нужно для успешного ранжирования, но по уму все спроектировать и залинковать, чтобы ранжировалось то, что намечено - крайне важно. Сайты разные, большие и маленький, зачастую нет времени, чтобы углубляться в смысловое изучение всех материалов. А с помощью программы сайт проанализировал и уже примерно видишь, где какие вхождения по запросам есть и чего где не хватает.


Совершенно верно, но опять таки, тут огромное кол во факторов нужно учитывать и опять таки недалеко и до общей формулы ранжирования)

Не, так мы уйдем в бесконечные дебри умозрительного теоретизирования..

Инструмент помогает решать вопросы проектирования релевантности и линковки, пусть им и остается.

√ SEO продвижение https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Обучение автоматизации с помощью Zennoposter https://goo-gl.me/6Zypu
besik1976
На сайте с 07.07.2010
Offline
163
#33
Как найти тот A, при условии, что этот файл A сам по себе уникален? Как его отличить от остальных - неизвестно.

Очень просто) Внедрить поиск по урлу в данном отчете

Инструмент помогает решать вопросы проектирования релевантности и линковки, пусть им и остается.

Всегда хочется большего)

Антоний Казанский
На сайте с 12.04.2007
Offline
617
#34




А это анализ другого сайта, который опять таки держит по вч вк топ 3 (естественно главная в серпе)

Ну, соб-но, что могу сказать. Если в общем контенте на многих страницах идет ссылка на вход/регистрацию аккаунта пользователя, то, соб-но, почему бы и нет?

Формально, это технические страницы и их надо закрывать для индексации. Засунул в Disallow: и вопрос решен.

Я вот сейчас проверил в программе один сайт, смотрю треть внутренних страниц имеют вес даже больше целевых внутренних, по которым я проводил анкорную перелинковку и продвижение. Смотрю подробнее, вообще вижу, что эти раздутые по весу страницы - это копии главной. Чей косяк? Мой.. потому что на этапе проектировки не увидел этих страниц. Робот по ним бегает - бегает.. время индексации это занимает - занимает, вес налево уходит - уходит. Значит сейчас по маске все эти страницы в Disallow: а по структуре, надо вносить коррективы во внутренню структуру адресации сайта. Вот программа мне и помогла разглядеть косяк.

besik1976
На сайте с 07.07.2010
Offline
163
#35
Если в общем контенте на многих страницах идет ссылка на вход/регистрацию аккаунта пользователя, то, соб-но, почему бы и нет?

Так же на главную страницу идет несколько сквозняков на самом сайте....

По поводу закрытия страниц от индекса, чем это поможет?

На сколько я знаю если есть ссылка, то вес по ней либо передается либо просто утекает, в данном случае (случае закрытия) вес просто утекает вникуда.

Антоний Казанский
На сайте с 12.04.2007
Offline
617
#36
besik1976:
Очень просто) Внедрить поиск по урлу в данном отчете

Cтоп. Тогда вообще мне непонятно. Если мы знаем URL, зачем тогда нам ее искать в общем перечне?

Если мы знаем целевую страницу - вводим ее в анализ данных и начинаем вести побор нужных страниц для перелинковки. Задача-то в чем?


Всегда хочется большего)

Я согласен. Мне кажется, то о чем мы сказали выше, вполне хватит на долгие месяцы разработки и внедрения в программу.

anthony_ добавил 30.06.2011 в 15:22

besik1976:
Так же на главную страницу идет несколько сквозняков на самом сайте....

В общих настройках, если стоят все галочки, то внизу опция, чтобы программа не учитывала вес сквозных ссылок. Попробуйте ее снял и проверить, изменится ли картина.


По поводу закрытия страниц от индекса, чем это поможет?

Кстати, по обозначенному выше сайту я через маску закрыл индексацию для нескольких страниц.

Предлагаю, в программе либо вообще не выводить их в результатах анализа, либо подсвечивать, например, серым, как страницы принудительно исключенные из процесса индексации.


На сколько я знаю если есть ссылка, то вес по ней либо передается либо просто утекает, в данном случае (случае закрытия) вес просто утекает вникуда.

Все верно. Но для меня лично были проблемы с индексацией этого сайта и с релевантностью до сих пор возникают проблемы, когда место целевой ранжируется второстепенная, так или иначе я вижу, что проблемы были..

anthony_ добавил 30.06.2011 в 15:31

Такс.. еще важный момент - уже к разработчику.

Сравниваю результат обратотки сайта вашей программой и программой Xenu.

В последнем случае программа видит ошибки (ссылки на страницы 404), ваша программа - не видит. И самое главное, те адреса, которые дублируют главную страницу - эти адрес сформированы вашей программой (т.е. результат неправильной обработки адреса) - программа выводит страницу

http://site.ru/?id_tovar=24, а на самом деле в структуре навигации эта страница называется http://site.ru/xxx_rus.php?id_tovar=24 - т.е. программа каким-то образом усекла адрес и породила новые адреса. Расчитала для эти адресов новый вес и он получился больше, чем у целевых страниц, это довольно серьезно путает. В результате, в программе значится 15 страниц, проиндексированных Яндексом, а в самом Яндексе поисковик находит больше 30-ти. Это, господа, разработчики, косяк, надо исправлять.

Cпустя несколько минут..

Проверил еще один сайт - точно такая ситуация. Программа неправильно обрабатывает адрес и порождает новые страницы. Соот-но, комплексно ей анализировать вообще нельзя :(

Ждем скорейшего исправления!

anthony_ добавил 30.06.2011 в 17:36

Нашел еще одну серьезную неувязку. Объясню на примере конкретного случая. Пришло задание продвинуть сайт по ритуальных услугах по новому перечню ключ. запросов, среди них запрос "бальзамирование". Пробую подобрать релевантную страницу и вижу, что ровно ничего программа мне предложить не может.. все по нулям. Начинаю проверять какие страницы релеванты для этого запроса по Яндексу и вижу, что ПС ранжирует три документа.

1) Страница с фото (текстового вхождения нет, ранжируется по внутреннему НПС)

2) Главная страница (есть слово "бальзамирование" и ссылка на вышеуказанное фото)

3) Второстепенная страница с публикацией, где тоже есть единичное употребление словоформы - "бальзамирования".

Кстати! Первым ранжируется документ именно с внутренним НПС, получается, что он перебивает главную, с прямым текстовым вхождение слова. Проверяю серп, отсекаю все лишние сайты и оставляю региональные - круто, на 4-ом месте ранжируется именно документ с фото по НПС. Вот это я понимаю! Респект Яндексу! Без каких либо натужных перелинковок логически выводит верную страницу! Круто! Ничего не скажешь.. начинаешь по-настоящему ощущать ценность ссылочного проектирования сайта. А большая часть оптимизаторов тупо давит внешним ссылочным из сапы, какое же это продвижение? Это просто ссылочный бомбинг :( Была бы моя воля, я бы вообще вес этот серый ссылочный sape хлам обесценил в минуса, рынок был бы куда здоровЕе. А то понавылезают деятели, за 500 рублей накачивают сайты сапой и пропагандируют "доступное" продвижение, перебивая истиную стоимость работ. Потом клиентские сайты хватают фильтры и прибегают, ай, помогите, мы купили ссылки, а сайт упал. Начинаешь проверять структуру и релевантность - там такой бред от незнания специфики ранжирования, такие перекосы, аж работать не хочется, - сносить все на домене и проектировать структуру сайта заново.

Вернемся к программе. Начинаю разбираться, как так, почему программа ничего подобного мне не показала? Почему ссылку с целевым анкором не нашла, почему, нет еще двух страниц, где употребляется это слово? И понимаю, что касаемо главной страницы, поиск идет по корпусу из 10 часто встречаемых слов по убывающей, и слово "бальзамирование" туда просто не попало (так спроектирована программа). В результате, программа просто не видит этих слов и никакую аналитическую работу, опираясь на программу здесь сделать нелья, - грусто, опять приходится работать с поиском по сайту и все делать вручную, программа в данном случае для меня нефункциональна :(

Вывод - наличие всех слов web документа необходимо программой индексировать, иначе это не инструмент анализа - а морской бой на тетрадном листке. Таких прогрешностей быть не должно.

mark3000
На сайте с 29.08.2009
Offline
115
#37

Ох, сразу столько полезной информации, что переварить трудно :) Однако попробую ответить в общих чертах

besik1976, Спасибо за вопросы

C E'RIDA 2

1. попробую разобраться

2. Это скорее всего бан, единственный способ это выставлять побольше задержку.

3. Экспорт в формат .xls есть, наверное просто не заметили :)

по LINKOSCOP 3:

1. В принципе я то же человек очень лояльно относящийся к любому мнению. Если Вы заметили то в самом первом посте я специально написал, что бы каждый пользователь составил именно свое мнение о программе. И если Вам кажется, что программа бесполезна, значить для Вас это так и есть.

2. С редиректом разберемся :)

3. Зародыш этого уже имеется в программе. В дальнейшем это будет развиваться и совершенствоваться.

4. Сейчас работаю над видео, думаю там может быть ответ на Ваш вопрос.

Еще раз извиняюсь за свое такое мнение

Лично я за любое мнение, ведь на самом деле именно критичные высказывания заставляют задуматься и переосмыслить свое направление. Если же вокруг все начинают говорить, что все хорошо то значить либо они тебя считают недоразвитым либо тут кроется что то другое :) Так что могу только сказать спасибо...

Кстати, что бы скрыть адрес сайта там имеется фильтр "скрыть домен" поэтому можно не "затирать" его в редакторе :)

anthony_,

Сравниваю результат обратотки сайта вашей программой и программой Xenu.
В последнем случае программа видит ошибки (ссылки на страницы 404), ваша программа - не видит. И самое главное, те адреса, которые дублируют главную страницу - эти адрес сформированы вашей программой (т.е. результат неправильной обработки адреса) - программа выводит страницу
http://site.ru/?id_tovar=24, а на самом деле в структуре навигации эта страница называется http://site.ru/xxx_rus.php?id_tovar=24 - т.е. программа каким-то образом усекла адрес и породила новые адреса. Расчитала для эти адресов новый вес и он получился больше, чем у целевых страниц, это довольно серьезно путает. В результате, в программе значится 15 страниц, проиндексированных Яндексом, а в самом Яндексе поисковик находит больше 30-ти. Это, господа, разработчики, косяк, надо исправлять.

Попробую понапрягать программиста по этому поводу :) Разберемся как и со всем остальным.

Я еще поизучаю написанное выше, возможно добавлю дополнения к ответам

Относительно внутренней перелинковки, то поставил эксперимент только за счет внутренней перелинковки некоторые страницы довольно ощутимо поднялись в ТОП. Если интересно то описание здесь: http://www.interascope.ru/blog/eksperiment-po-proverki-peredachi-vesa-ssyilkami-vnutri-sayta/

Еще раз спасибо за Ваши ответы, замечания и предложения. Обязательно все это будет изучено и обработано

LINKOSCOP 4.2 (http://www.interascope.biz/linkoscop-4/) это 100+ функций для работы с внутренней перелинковкой
Антоний Казанский
На сайте с 12.04.2007
Offline
617
#38

mark3000, спасибо Вам за ответ! Будем ждать комментарии по другим вопросам и, конечно, новых, доработанных версий программы!

Горю желанием купить, но необходимо, в первую очередь, исправить явные ошибки.

netUfo
На сайте с 09.02.2006
Offline
133
#39
mark3000:


Лично я за любое мнение, ведь на самом деле именно критичные высказывания заставляют задуматься и переосмыслить свое направление. Если же вокруг все начинают говорить, что все хорошо то значить либо они тебя считают недоразвитым либо тут кроется что то другое :) Так что могу только сказать спасибо...

Не согласен. По сравнению со второй версией (которую вы помните я очень жестко критиковал)

Третья - просто чудесна.

Мне достаточно графика распределения "весов" - уже ясно все становится.

сеотехнологии.рф (http://сеотехнологии.рф/)
mark3000
На сайте с 29.08.2009
Offline
115
#40

anthony_, Вам спасибо за интерес и полезную информацию. На днях выйдет обновление, там войдут некоторые указанные исправления.

netUfo, Спасибо :) может именно потому что критиковали и получилось лучше :) Хотя конечно согласен, критика должна быть конструктивной и скорее направлять, а не обрывать.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий