- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Ну самые главные это тошнота страницы по ключу и внешний ссылочный вес - это в 2ух словах.
Возможно неправильно выразился)
Есть 20к страниц на сайте, я занимаюсь продвижением страницы A.
Программа проанализировала эти 20к страниц и выдала мне их общим списком, вопрос - как найти страницу А не перелистывая весь список и не ища ее глазками?
Эти ваши слова и подтверждают косвенно бесполезность программы в продвижении уже работающих проектов, т.к. она не учитывает ряд факторов. Скажем так, эта программа поможет распределить общий ссылочный вес более правильно на этапе разработки сайта ну и более быстро наращивать ПР страниц.
Было бы думаю неплохо) Тем более что задатки у разработчиков есть.
Совершенно верно, но опять таки, тут огромное кол во факторов нужно учитывать и опять таки недалеко и до общей формулы ранжирования)
А это анализ другого сайта, который опять таки держит по вч вк топ 3 (естественно главная в серпе)
Ну самые главные это тошнота страницы по ключу и внешний ссылочный вес - это в 2ух словах.
С тошнотой - в анализе данных программа подсвечивает кол-во употреблений слов.
Я как раз выше писал об этом, если бы разработчики расширили этот перечень метрик, ну, допустим, до уровня http://advego.ru/text/seo/ - было бы, конечно, здорово.
Внешний ссылочный вес - тоже уже говорил, это очень сложно, ибо связано с парсингом бэков, а это очень ресурсоемкий процесс.
Возможно неправильно выразился)
Есть 20к страниц на сайте, я занимаюсь продвижением страницы A.
Программа проанализировала эти 20к страниц и выдала мне их общим списком, вопрос - как найти страницу А не перелистывая весь список и не ища ее глазками?
И все равно непонятно. Продвигаемая страница А должна обладать перечнем определенных признаков, как можно в массиве данных искать элемент, который никак не характеризуется кроме того, что он обозначен вами как А.
Это все равно, что - в папке есть 20K файлов. Один из них - А. Как найти тот A, при условии, что этот файл A сам по себе уникален? Как его отличить от остальных - неизвестно.
Эти ваши слова и подтверждают косвенно бесполезность программы в продвижении уже работающих проектов, т.к. она не учитывает ряд факторов. Скажем так, эта программа поможет распределить общий ссылочный вес более правильно на этапе разработки сайта ну и более быстро наращивать ПР страниц.
Я бы так не сказал. Конечно, чем более зрелый сайт, тем дальше те результаты, которые можно получить при программной итерации сайта. Однако, если оптимизатор сталкивается с тем, что при ранжировании в ПС у него часто переназначается страница, то программа поможет выявить неправильную линковку, если она имеет место.
И этап разработки тоже очень важно. У меня считай каждую неделю - новый клиентский сайт на тарифном региональном продвижении. Кажется и работы там неочень, и ссылок там особо не нужно для успешного ранжирования, но по уму все спроектировать и залинковать, чтобы ранжировалось то, что намечено - крайне важно. Сайты разные, большие и маленький, зачастую нет времени, чтобы углубляться в смысловое изучение всех материалов. А с помощью программы сайт проанализировал и уже примерно видишь, где какие вхождения по запросам есть и чего где не хватает.
Совершенно верно, но опять таки, тут огромное кол во факторов нужно учитывать и опять таки недалеко и до общей формулы ранжирования)
Не, так мы уйдем в бесконечные дебри умозрительного теоретизирования..
Инструмент помогает решать вопросы проектирования релевантности и линковки, пусть им и остается.
Очень просто) Внедрить поиск по урлу в данном отчете
Всегда хочется большего)
А это анализ другого сайта, который опять таки держит по вч вк топ 3 (естественно главная в серпе)
Ну, соб-но, что могу сказать. Если в общем контенте на многих страницах идет ссылка на вход/регистрацию аккаунта пользователя, то, соб-но, почему бы и нет?
Формально, это технические страницы и их надо закрывать для индексации. Засунул в Disallow: и вопрос решен.
Я вот сейчас проверил в программе один сайт, смотрю треть внутренних страниц имеют вес даже больше целевых внутренних, по которым я проводил анкорную перелинковку и продвижение. Смотрю подробнее, вообще вижу, что эти раздутые по весу страницы - это копии главной. Чей косяк? Мой.. потому что на этапе проектировки не увидел этих страниц. Робот по ним бегает - бегает.. время индексации это занимает - занимает, вес налево уходит - уходит. Значит сейчас по маске все эти страницы в Disallow: а по структуре, надо вносить коррективы во внутренню структуру адресации сайта. Вот программа мне и помогла разглядеть косяк.
Так же на главную страницу идет несколько сквозняков на самом сайте....
По поводу закрытия страниц от индекса, чем это поможет?
На сколько я знаю если есть ссылка, то вес по ней либо передается либо просто утекает, в данном случае (случае закрытия) вес просто утекает вникуда.
Очень просто) Внедрить поиск по урлу в данном отчете
Cтоп. Тогда вообще мне непонятно. Если мы знаем URL, зачем тогда нам ее искать в общем перечне?
Если мы знаем целевую страницу - вводим ее в анализ данных и начинаем вести побор нужных страниц для перелинковки. Задача-то в чем?
Всегда хочется большего)
Я согласен. Мне кажется, то о чем мы сказали выше, вполне хватит на долгие месяцы разработки и внедрения в программу.
anthony_ добавил 30.06.2011 в 15:22
Так же на главную страницу идет несколько сквозняков на самом сайте....
В общих настройках, если стоят все галочки, то внизу опция, чтобы программа не учитывала вес сквозных ссылок. Попробуйте ее снял и проверить, изменится ли картина.
По поводу закрытия страниц от индекса, чем это поможет?
Кстати, по обозначенному выше сайту я через маску закрыл индексацию для нескольких страниц.
Предлагаю, в программе либо вообще не выводить их в результатах анализа, либо подсвечивать, например, серым, как страницы принудительно исключенные из процесса индексации.
На сколько я знаю если есть ссылка, то вес по ней либо передается либо просто утекает, в данном случае (случае закрытия) вес просто утекает вникуда.
Все верно. Но для меня лично были проблемы с индексацией этого сайта и с релевантностью до сих пор возникают проблемы, когда место целевой ранжируется второстепенная, так или иначе я вижу, что проблемы были..
anthony_ добавил 30.06.2011 в 15:31
Такс.. еще важный момент - уже к разработчику.
Сравниваю результат обратотки сайта вашей программой и программой Xenu.
В последнем случае программа видит ошибки (ссылки на страницы 404), ваша программа - не видит. И самое главное, те адреса, которые дублируют главную страницу - эти адрес сформированы вашей программой (т.е. результат неправильной обработки адреса) - программа выводит страницу
http://site.ru/?id_tovar=24, а на самом деле в структуре навигации эта страница называется http://site.ru/xxx_rus.php?id_tovar=24 - т.е. программа каким-то образом усекла адрес и породила новые адреса. Расчитала для эти адресов новый вес и он получился больше, чем у целевых страниц, это довольно серьезно путает. В результате, в программе значится 15 страниц, проиндексированных Яндексом, а в самом Яндексе поисковик находит больше 30-ти. Это, господа, разработчики, косяк, надо исправлять.
Cпустя несколько минут..
Проверил еще один сайт - точно такая ситуация. Программа неправильно обрабатывает адрес и порождает новые страницы. Соот-но, комплексно ей анализировать вообще нельзя :(
Ждем скорейшего исправления!
anthony_ добавил 30.06.2011 в 17:36
Нашел еще одну серьезную неувязку. Объясню на примере конкретного случая. Пришло задание продвинуть сайт по ритуальных услугах по новому перечню ключ. запросов, среди них запрос "бальзамирование". Пробую подобрать релевантную страницу и вижу, что ровно ничего программа мне предложить не может.. все по нулям. Начинаю проверять какие страницы релеванты для этого запроса по Яндексу и вижу, что ПС ранжирует три документа.
1) Страница с фото (текстового вхождения нет, ранжируется по внутреннему НПС)
2) Главная страница (есть слово "бальзамирование" и ссылка на вышеуказанное фото)
3) Второстепенная страница с публикацией, где тоже есть единичное употребление словоформы - "бальзамирования".
Кстати! Первым ранжируется документ именно с внутренним НПС, получается, что он перебивает главную, с прямым текстовым вхождение слова. Проверяю серп, отсекаю все лишние сайты и оставляю региональные - круто, на 4-ом месте ранжируется именно документ с фото по НПС. Вот это я понимаю! Респект Яндексу! Без каких либо натужных перелинковок логически выводит верную страницу! Круто! Ничего не скажешь.. начинаешь по-настоящему ощущать ценность ссылочного проектирования сайта. А большая часть оптимизаторов тупо давит внешним ссылочным из сапы, какое же это продвижение? Это просто ссылочный бомбинг :( Была бы моя воля, я бы вообще вес этот серый ссылочный sape хлам обесценил в минуса, рынок был бы куда здоровЕе. А то понавылезают деятели, за 500 рублей накачивают сайты сапой и пропагандируют "доступное" продвижение, перебивая истиную стоимость работ. Потом клиентские сайты хватают фильтры и прибегают, ай, помогите, мы купили ссылки, а сайт упал. Начинаешь проверять структуру и релевантность - там такой бред от незнания специфики ранжирования, такие перекосы, аж работать не хочется, - сносить все на домене и проектировать структуру сайта заново.
Вернемся к программе. Начинаю разбираться, как так, почему программа ничего подобного мне не показала? Почему ссылку с целевым анкором не нашла, почему, нет еще двух страниц, где употребляется это слово? И понимаю, что касаемо главной страницы, поиск идет по корпусу из 10 часто встречаемых слов по убывающей, и слово "бальзамирование" туда просто не попало (так спроектирована программа). В результате, программа просто не видит этих слов и никакую аналитическую работу, опираясь на программу здесь сделать нелья, - грусто, опять приходится работать с поиском по сайту и все делать вручную, программа в данном случае для меня нефункциональна :(
Вывод - наличие всех слов web документа необходимо программой индексировать, иначе это не инструмент анализа - а морской бой на тетрадном листке. Таких прогрешностей быть не должно.
Ох, сразу столько полезной информации, что переварить трудно :) Однако попробую ответить в общих чертах
besik1976, Спасибо за вопросы
C E'RIDA 2
1. попробую разобраться
2. Это скорее всего бан, единственный способ это выставлять побольше задержку.
3. Экспорт в формат .xls есть, наверное просто не заметили :)
по LINKOSCOP 3:
1. В принципе я то же человек очень лояльно относящийся к любому мнению. Если Вы заметили то в самом первом посте я специально написал, что бы каждый пользователь составил именно свое мнение о программе. И если Вам кажется, что программа бесполезна, значить для Вас это так и есть.
2. С редиректом разберемся :)
3. Зародыш этого уже имеется в программе. В дальнейшем это будет развиваться и совершенствоваться.
4. Сейчас работаю над видео, думаю там может быть ответ на Ваш вопрос.
Лично я за любое мнение, ведь на самом деле именно критичные высказывания заставляют задуматься и переосмыслить свое направление. Если же вокруг все начинают говорить, что все хорошо то значить либо они тебя считают недоразвитым либо тут кроется что то другое :) Так что могу только сказать спасибо...
Кстати, что бы скрыть адрес сайта там имеется фильтр "скрыть домен" поэтому можно не "затирать" его в редакторе :)
anthony_,
В последнем случае программа видит ошибки (ссылки на страницы 404), ваша программа - не видит. И самое главное, те адреса, которые дублируют главную страницу - эти адрес сформированы вашей программой (т.е. результат неправильной обработки адреса) - программа выводит страницу
http://site.ru/?id_tovar=24, а на самом деле в структуре навигации эта страница называется http://site.ru/xxx_rus.php?id_tovar=24 - т.е. программа каким-то образом усекла адрес и породила новые адреса. Расчитала для эти адресов новый вес и он получился больше, чем у целевых страниц, это довольно серьезно путает. В результате, в программе значится 15 страниц, проиндексированных Яндексом, а в самом Яндексе поисковик находит больше 30-ти. Это, господа, разработчики, косяк, надо исправлять.
Попробую понапрягать программиста по этому поводу :) Разберемся как и со всем остальным.
Я еще поизучаю написанное выше, возможно добавлю дополнения к ответам
Относительно внутренней перелинковки, то поставил эксперимент только за счет внутренней перелинковки некоторые страницы довольно ощутимо поднялись в ТОП. Если интересно то описание здесь: http://www.interascope.ru/blog/eksperiment-po-proverki-peredachi-vesa-ssyilkami-vnutri-sayta/
Еще раз спасибо за Ваши ответы, замечания и предложения. Обязательно все это будет изучено и обработано
mark3000, спасибо Вам за ответ! Будем ждать комментарии по другим вопросам и, конечно, новых, доработанных версий программы!
Горю желанием купить, но необходимо, в первую очередь, исправить явные ошибки.
Лично я за любое мнение, ведь на самом деле именно критичные высказывания заставляют задуматься и переосмыслить свое направление. Если же вокруг все начинают говорить, что все хорошо то значить либо они тебя считают недоразвитым либо тут кроется что то другое :) Так что могу только сказать спасибо...
Не согласен. По сравнению со второй версией (которую вы помните я очень жестко критиковал)
Третья - просто чудесна.
Мне достаточно графика распределения "весов" - уже ясно все становится.
anthony_, Вам спасибо за интерес и полезную информацию. На днях выйдет обновление, там войдут некоторые указанные исправления.
netUfo, Спасибо :) может именно потому что критиковали и получилось лучше :) Хотя конечно согласен, критика должна быть конструктивной и скорее направлять, а не обрывать.