А такой вопрос. Как я понимаю исходя из сообщений на форуме в офлайн версии есть возможность моделирования схемы сайта на основе даных парсинга. А возможно ли туда выгрузить данные из сканера online? Т.е. скан сделать вашеми силами, а дальше уже в проге заниматься моделированием. Если говорить про большие сайты в плане именно моделирования, а не парсинга программа справится или будут проблемы?
Пробовали, но от формата простого ведения группы уже давно ушли. Так как это не эффективно. Пытались отдать работу на аутсорс, но по факту нам опять предлагают создать группу, нагнать юзеров, вести группу. С теми или иными различиями.
По причинам указанным выше никому не отдали. Хотя комм. предложение собирали с фирм 10 (ингейты, демисы и т.п.). Лишний раз убедились что smm идет приставкой так как это модно. Весь разговор сводился "а что вы хотите? - а что вы можете предложить? -наши дизайнеры отрисовывают группу..."
В каком формате мы сейчас работаем? Сложно назвать это типичным smm, но по факту мы занимаемся отслеживанием активности в интернете на интересующие нас тематики. Полноценного аутсорса этого у нас в стране нет, метрик так же нет. Формализованного процеса который можно передать фрилансу тоже. Поэтому как это отдать на аутсорс?
Вот тут все советуют отдать smm на аутсорс. На аутсорс как правило отдается формализованный бизнес процес. Можно отдать seo, контекст и т.п. но отдать то в чем нет понимания, что делать - изначально бред. Что такое smm по факту это pr. Какими метриками мерить результаты аутсорса. Количество ботов в группе? Или cpa или cps? Или узнаваемость бренда?
Все что предлагают аутсорсеры это или боты или дублирование контента в сети. И все... Нет у нас в стране специалистов по smm. Поэтому все надувают щеки со словами за соц сетями будущее, но какое и как его использовать пока нет понимания.
Я не защищаю битрикс я просто изложил факт. Найдите хоть одни движок который не имеет глюков. Максиму что придет на ум это простая хтмл верстка на 10 страниц. Все остальное по определению будет глючить в той или иной степени.
Софт (будем говорить про pw, хотя битрикс тоже софт) и не формировал новых url. PW просто в одном случае не считал все имеющиеся урлы, т.е. не считал все данные.
А в другом случае изоброзил отсутствующую по факту петлю и сквозную ссылку. Ну нет их на сайте. Просто нет. Если бы софт изобрел несуществующую страницу тогда вопросов не было бы. Сгенерировать новую страницу может только битрикс. И в этом случае был бы его глюк. Но новых страниц нет, а все что есть - "залипшие" данные сканера, которые не подтверждаются ни визуально, ни кодом сайта, ни анкором, ни данными вебмастера и даже самим сканером при повторном запуске. Код страниц в поиске ошибки был просмотрен под всеми браузерами, режимами и т.п.
Рекомендация "обратите внимание на код" - звучит интересно, но в коде нет тех данных о которых говорит сканер. Не имея данных, что видел сканнер, нельзя сказать откуда проблема.
Вот именно никаких изменений не вносилось, а петли исчезли. По факту было бы интересно узнать откуда сканер взял эти петли. Грубо говоря если бы был бы бэкап страницы которую видел сканер можно было сделать вывод кто дает сбой сканер или сайт. А так непонятно. Вы считает сайт, я считаю сканнер.
Разница в индексе связана с тем что гугл на ура кушает страницы фактически с одним и тем же товаром, отличающихся например только цветом, а яндекс считает что это дубли. Для сведения количество страниц найденых гуглом 2900 вашим сканером 1700. Понятно что гугл напихал себе в индекс служебных страниц. Даже закрытых robots и не охотно растается с ними...
Действительно при сканировании петли исчезли, но на двух тестах одного сайта с разницей в час ваш сканер выдал разное количество страниц. Хотя они постоянны и присутствуют. Какие именно страницы выпали: я нашел 2 страницы это ссылки на каптчи. Они динамические и тут разница понятна, но так же выпали и постоянные страницы которые присутствуют абсолютно точно.
Движок сайта битрикс, так что серьезных оснований не доверять ему нет. Прогнал 2 раза аналогичный сайт точно с таким же кодом и движком, но просто с меньшим количеством страниц 160. Разниц в коль-во страниц нет. Есть только в количестве уникальных анкоров. К сожалению не нашел варианта экспорта анкоров что бы узнать какие анкоры выпали.
В итоге по факту имеем ситуацию когда 2 разных сайта прогнали минимум по 2 раза. Все результаты разные... Очень хочется выяснить причину. Кто же виноват сервис или сайты...
Прогонял сайт чере pw online. Итог сначала программа обнаружил какой то сквозняк на каждой странице, которого нет на самом деле. После обращения в тех поддержку, сканер перезапущен. И теперь обнаружились петли на каждой странице, которых так же нет. Техподдержка отписала что это сайт виноват и "Скорее всего появление петель из-за неверно сгенерированной сквозной ссылки на какой-то товар", но никакой генерации сквозной ссылки на сайте нет. Так что ощущение что именно pw глючит....
Могу с уверенностью сказать что ctr на поиске со страниц где есть гугл + выше, но это при условии, что у других в выдаче г+ нет. Т.е. Выдача просто привлекает своей яркой иконкой. Так что косвено через пф г+ все таки повлияет, хотя влияние будет незначительным. Насчет непосредственного влияния, конечно надо проводить эксперимент, но скорее всего влияние если и будет то минимальное и в пределах погрешности.
Как мне кажется соцсети будут используются скорее как некий инструмент позволяющий определить, естественность ссылок. Напрример при наличии 5000 ссылок и отсутствии социальной активности - будет признак что ссылки покупные и их вес уменьшиться.
Вставляли как то чпу на один свой рабртающий сайт с 8000 страниц.. Правда не джумла, но смысл один. Полгода тряска позиций. Куча мусора в индексе. Чистка всего этого. Дублирование страниц. 301 редиректы. 404 ошибки... И если гугл отлично и быстро все поменял, то великий тормоз янедекс до сих пор спустя 8 месяцев держит в индексе несколько десятков страниц без чпу с 404 ошибкой. Удалять их в ручную не собираюсь. Это работа яндекса. Пусть сам удаляет.
А если спросить какая польза от всего от этого - даже не знаю что и ответить. Говорят поисковики лучше относяться. Но как то особых отношений не заметил. Посетителям удобно - да им вроде вообще всеравно. На действующий сайт однозначно больше не стал бы чпу внедрять. На новый пожалуйста. А так смысла не увидел.
Вот тут и вопрос на который нет ответа. Понятно что учитывается поведение пользователя на сайте. И для это хорош и директ и выдача. Но существует мнение что так же учитывается ctr выдачи. Т.е. если на ваш сайт в выдаче не кликают, то он не релевантен и подлежит смещению вниз.
- Стаж! Ничего уж тут не поделаешь - Клим Чугункин.
- Вы полагаете, Филипп Филиппович?
- Нечего и полагать. И так всё ясно.