Ну, соб-но, что могу сказать. Если в общем контенте на многих страницах идет ссылка на вход/регистрацию аккаунта пользователя, то, соб-но, почему бы и нет?
Формально, это технические страницы и их надо закрывать для индексации. Засунул в Disallow: и вопрос решен.
Я вот сейчас проверил в программе один сайт, смотрю треть внутренних страниц имеют вес даже больше целевых внутренних, по которым я проводил анкорную перелинковку и продвижение. Смотрю подробнее, вообще вижу, что эти раздутые по весу страницы - это копии главной. Чей косяк? Мой.. потому что на этапе проектировки не увидел этих страниц. Робот по ним бегает - бегает.. время индексации это занимает - занимает, вес налево уходит - уходит. Значит сейчас по маске все эти страницы в Disallow: а по структуре, надо вносить коррективы во внутренню структуру адресации сайта. Вот программа мне и помогла разглядеть косяк.
С тошнотой - в анализе данных программа подсвечивает кол-во употреблений слов.
Я как раз выше писал об этом, если бы разработчики расширили этот перечень метрик, ну, допустим, до уровня http://advego.ru/text/seo/ - было бы, конечно, здорово.
Внешний ссылочный вес - тоже уже говорил, это очень сложно, ибо связано с парсингом бэков, а это очень ресурсоемкий процесс.
И все равно непонятно. Продвигаемая страница А должна обладать перечнем определенных признаков, как можно в массиве данных искать элемент, который никак не характеризуется кроме того, что он обозначен вами как А.
Это все равно, что - в папке есть 20K файлов. Один из них - А. Как найти тот A, при условии, что этот файл A сам по себе уникален? Как его отличить от остальных - неизвестно.
Я бы так не сказал. Конечно, чем более зрелый сайт, тем дальше те результаты, которые можно получить при программной итерации сайта. Однако, если оптимизатор сталкивается с тем, что при ранжировании в ПС у него часто переназначается страница, то программа поможет выявить неправильную линковку, если она имеет место.
И этап разработки тоже очень важно. У меня считай каждую неделю - новый клиентский сайт на тарифном региональном продвижении. Кажется и работы там неочень, и ссылок там особо не нужно для успешного ранжирования, но по уму все спроектировать и залинковать, чтобы ранжировалось то, что намечено - крайне важно. Сайты разные, большие и маленький, зачастую нет времени, чтобы углубляться в смысловое изучение всех материалов. А с помощью программы сайт проанализировал и уже примерно видишь, где какие вхождения по запросам есть и чего где не хватает.
Не, так мы уйдем в бесконечные дебри умозрительного теоретизирования..
Инструмент помогает решать вопросы проектирования релевантности и линковки, пусть им и остается.
Я согласен с вами, определенный здравый довод в вашем рассуждении есть!
Одно дело общий внутренний ссылочный вес, другое дело внутренний анкорный вес (т.е. какое общее кол-во ссылок ведет на эту страницу и какова их доля по анкорному содержанию).
Я считаю, правильно, это тоже нужно реализовать.
Хотя, опосредованно, в анализе данных видно, по каким анкорам идет линковка. Нужно ли добавить сюда свои метрики - думаю нужно и надеюсь, это будет следующим этапом развития программы.
Давайте попробуем обозначить.
Меня вообще очень радует, что состоялся подробный, обстоятельный разговор, уважемых друг друга оппотентов - это крайне важно для взаимополезного разговора!
И тут тоже с вами согласен! Вы - молодец, задаете правильное направление мысли!
Необходимо, чтобы программа имело несколько режимов - подбирала релевантные страницы и с учетом всех слов в запросе и с учетом запроса целиком (в исходной форме и в вариативных словоформах).
В вашем вопросе - задача с двумя неизвестными. Вы ищете страницу, не зная ее индивидуальных критериев, и хотите потом посмотреть какие ссылки идут с нее. Как же вы хотите, чтобы программа ее угадала? Я лично тоже не понял, что это за страница.
О том, что преимущества веса уходит на страницу с профилем. Происходить это может из-за нарушения общей адресации. Значит нужно смотреть входящие внутренние ссылки на адрес с профилем пользователя и разбираться, почему происходит такой перекос, а главная страница недополучает статический вес.
Совсем нет, к чему такой вывод? Если у вас в итоге ранжируется правильная страница, то по золотому правило seo-шника - "работает, - не трогай!". А вот если вместо целевой морды по запросу "слоны" у вас выходит профиль пользователя - вот вам программы наглядно и демонстрирует, что проблема может быть в распределении статического веса и такого в моей практике было достаточно много.
Ну, дружище, конечно, всех этих условностей программа расчитать не может. Так можно и до выведения общей формулы ранжирования в Яндексе дойти. Программа решает свои узкие задачи.
Есть сайт, у него есть своя структура, программа пробегает по ссылкам и совершает первичную итерацию. В этой итерации накапливаются свои статистические метрики _внутри_ сайта - с ними и работаем, - ни больше, ни меньше. То, что внешнее ссылочное формирует свой анкорный вес и распределяет его по страницам - это дело третье, мы его никак не можем учесть.
А вот то, что я предлагал - сделать сравнение текущего подбора страниц (сравнение релевантности) - с той релевантностью, которая есть в поисковой системе - это необходимо.
Я не тот, кто закидывает камнями, я тот, кто предлагает сесть и спокойно обсудить :)
Конечно, то, что мы сейчас с вами сообща решаем и полемизируем - это очень важный и необходимый этап в развитии программного продукта и автор это, я вижу, отлично понимает!
p.s. Кроме всего прочего, после приобретения программы я планирую написать на своем блоге еще один подробный обзор функциональной значимости программы.
mark3000, спасибо и вам за ваш труд!
Еще ряд вопросов. Вы говорите, что обновления бесплатны в пределах одной версии. Несовсем понятно, а как регулируется линейка версии программы? Допустим, вы посчитаете необходимым каждое обновленное сопровождать выпуском новой версии, как быть? Сориентируйте, пожалуйста, на что можно расчитывать.
Теперь личный вопрос. Я бы хотел приобрести лицензию на два компьютера (на рабочий в офисе и на домашних - для домашних наработок), я могу связаться с вами в личке, чтобы, допустим, через аську решить все орг. вопросы, оплатить напрямую программу и получить два ключа?
С индикацией и демонстрацией данных, понятно, будем привыкать, хотя, конечно, хотелось бы более корректной работы в этом вопросе.
По поводу внешних ссылок. Я лично тоже противник этой идеи, потому что у этой программы своя ниша - работа со статистическими данными целевого сайта. Анализ внешних ссылок - это уже совсем другая история и она будет обязывать вас ко многим других функциональным новшествам. Я не вижу смысла перегружать программу, потому как аналоги для подобных задач есть, например, CS Yazzle.
Лучше направить свои силы в задачи семантической обработки текста, возможно, имеет смысл ввести анализ и выявление дублей контента (например, когда движки типа joomla-а начинают плодить дубли), можно добавить эмуляцию итерации и выводить прогноз накопления ссылочного веса, также имеет смысл добавить генерацию тестовой карты сайты и генерацию sitemap.xml, можно попробовать выводить графическое представление древовидной структуры сайта - тоже было бы очень здОрово. Что еще.. а! можно сделать проверку на уникальность для целевых анализируемых страниц - это тоже первичная и необходимая задача для каждого сеошника. Таким образом, в вашей нише полно теоретически интересных задач, поэтому желаю вам не пытаться охватить все сразу, а сосредоточиться на своей узкий проф. ориентации.
anthony_ добавил 30.06.2011 в 10:47
Линкоскоп :)
Вы неправы :)
Смысл в том, чтобы видеть как распределяется статический ссылочный вес страниц по сайту.
Допустим, запушен новый сайт. Его сделали так, как сделали. У вас как у сеошника стоит задача - продвинуть сайты по запросу "слоны". Допустим, у вас на главной странице нет вообще ничего про слонов, а на внутренних страницах есть такая информация.
site.ru/история слонов.php
site.ru/уход за слонами.php
site.ru/разведение словнов.php
site.ru/болезни слонов.php
Клиент настаивает, допустим, чтобы в серпе ранжировалась страница про разведение слонов, а по умолчанию в области поиска по сайту первой странцией ранжируется "история слонов" - как быть?
Вот загружаете сайт в программу и смотрите, как распределяется статистический вес по эти тематически близки страницам. И видя картину, где какие у вас страницы, проектируете как распределить статически вес страниц, как перелинковать и закрепить результат анкорным весом.
Да. Здесь согласен, господа, обработку редиректных ссылок надо подключить.
Допустим, если я через htaccess принудительно обрабатываю ссылку site.ru/index.php на адрес site.ru - это никакая не ошибка, это техническая склейка!
Так эту функцию программа и выполняет во вкладке анализ данных.
Что значит нет возможности поиска? Если для себя вы знаете какие конкретно страницы хотите подтянуть засчет перелинковки, так и указывайте эти страницы в анализе данных и дополнительно подбираете те, какие второстепенных страницы можно заликновать на целевые.
У любой хорошей программной разработки должна быть качественная перспектива роста и в этой программе она есть. Так или иначе текущую релевантность в ПС определять надо, потому как - какой смысл проектировать релевантность, исходя их статистический метрик программы, если в любом случае каждый ответственный оптимизатор будет сравнивать результаты с теми, что он получает в ПС.
В обозримом будущем - да, а куда деваться-то? Если есть конюктурные требования, должны быть и функциональные предложения ;)
mark3000, спасибо за ваш труд и за то, что решили поделиться своими наработками с общественностью.
Программа произвела на меня очень хорошее впечатление, я готов приобрести, но перед этих хочу выяснить ряд орг. вопросов и внести предложения в общий функционал.
По оплате. Мне непонятно, 450 рублей - это лицензия на один компьютер?
Потому как обычно подобный софт распространяют как минимум на 2 машины (чаще всего это рабочий и домашний компьютер). Последующие обновления программы для уже купивших будут бесплатные? Привязка идет к железу или в текущей ОС?
Теперь о фунциональности вашей программы.
1) У программы нет индикации обработки данных. Допустим, я зашел в раздел "Ссылки и страницы". Выбираю вкладку "Ссылки на страницы" - проверяю главную страницу и вижу, что нет ни одной ссылки. Удивляюсь и иду дальше по разделам и вкладкам. Посмотрел все, потому вернулся снова в этот раздел и в эту вкладку и вижу, ccылки в кол-ве 200 штук наличиствуют.. и понимаю, что на момент просмотра программа просто обрабатывала данные и не вывела результат. Когда она его выведет и в каком объеме - программа пользовеля не информирует, хотя если сразу же просматривать внутренние страницы - предварительная информация видна. В общем, этот вопрос надо решить.
2) Раздел "Анализ данных" - т.е. самая сердцевина это программы, которая представляет наибольший интерес. Давайте так.. если уж это программа для специалистов по SEO, там и давайте оперировать проф. терминами - что еще за "подборы" ? В поисковых технологиях есть термин "релевантность" - вводите его, потому как подобрать/выбрать страницу и определить текущую релевантность - вещи несколько разные и они являются ключевыми в практики оптимизации.
Далее - чего программе определенно не хватает. Программа обрабатывает сайт и проверять индексацию страниц в ПС, но программа не захватывает такой важный момент - как текущая релевантость страниц в поисковой системе.
То, что статистически, с помощью программы к определенному запросу можно найти свою страницу - еще не факт, что этот выбор будет совпадать с релевантностью в поисковике.
Я приведу пример, чтобы стало понятно. Допустим, есть анализируемый сайт и есть перечень запросов в нему, допустим, сайт - site.ru, нужный запрос - "слон". Задача оптимизатора - уже на готовом сайте определить ту целевую страницу, которую необходимо продвигать. Допустим, сайт уже проиндексирован Яндексом и Яндекс, ест-но, уже распределил релевантность проиндексированных документов по отношению к запросу "слон" - и релевантность Яндекса совсем необязательно будет совпадать с той выборкой, которую, исходя их численных значений вхождений запросов делает программа.
Если же попытаться проверить программой уже зрелый сайт, которые оброс внешними ссылками, то по релевантности возникают вообще очень глубокие противоречия, ведь программа учитывает только статистические метрики, а динамику внешних ссылоку (ссылки с других сайтов) - их влияние и вес в соответствии с ранжируемостью сайта в поисковых системах она учесть не может.
Посему мое горячее пожелание - внедрить в программу данные текущей релевантности страниц хотя бы по Яндексу.
Господа, подскажите инструментарий к Joomla-е.
Нужно сделать тематический портал. На нем разделы: новости, доска объявлений, публикации и т.д. Соб-но, нужен парсер, который будет сливать информацию с первоисточников и толково раскидывать ее по разделам, с картинками, видео (по возможности).
Можно платное.
Готовы выполнить работу под ключ с нужными вам анкорами.
Также установим баннеры и графические кнопки со ссылками.
Да, может. Если релевантность не удается выровнять текстовой составляющей и перелинковской, то, соответственно, на эту страницу льют нужное анкорное ссылочное.
Допустим. Две статьи. В одной - про продажу слонов, в другой - про разведение слонов.
Целевой анкор - "слоны". Если в топе нужно видеть страницу с продажей слонов, а выходит разведение, соот-но, лить ссылочное с анкорами "слон/слоны" на целевую страницу.
p.s. Ну и про анкорную линковку не забываем. В данном случае на анкор "слоны" в документе про разведение слонов ставим ссылки на документ о продаже слонов.
Стучите в аську, пообщаемся.. чеетыре4ооодин02триии22-8