blackgold

blackgold
Рейтинг
146
Регистрация
09.02.2008
Виктор Петров #:
Хотя бы потому, что надо знать, куда смотреть. А я пока не видел ни одного сервиса аудитов, который смог бы сделать всю работу за меня. Ни в каком отношении: техничка, семантика, оценка ссылочного, КФ и т.п. Длину тайтла оценить и наличие микроразметки - это они запросто. Только вот всё это не то, что действительно важно.

хорошо.

оценить текстовую оптимизацию+мета мы можем на ее релевантность запросу? внешние ссылки на сайт, на страницу. их качество, анкоры? скорость загрузки, дату появления, наличие картинок и т.п.

это мегасложно проанализировать и это не влияет никак на позиции? это только эфемерным анализом высокоинтуитивного сеошника  можно проанализировать)

Антоний Казанский #:

Все верно, ед-но, слово "инсайты" я бы заменил "точками роста", а "гипотезы" - "поисками эффективных решений". Все это завязывается на творческо-производственном интеллекте в тесной связи с модернизацией и адаптацией бизнеса под потребности рынка. Сервисы такое не могут и в полной мере никогда не смогут, потому что это не предмет анализа готовых данных, это во многом творческий процесс, который нередко формирует уникальные идеи.

вы так пишете как будто вся адаптация абстрактна. ПС имеют свои измерители. пример опять же в сравнении с автоспортом: можно сколько угодно рассказывать о творческом потенциале команды, их таланте о невероятных качествах гонщика, о супертворческом процессе который рождает технологические решения и т.д. но есть показатель: скорость замены колес на питстопе, ускорение авто, мощность и т.д. и эти показатели базовые.

так же и в результатах на серпе есть критерии. и данный чеклист имеет вполне четкие очертания.

вы как профессионал разве не пользуетесь чеклистами? или все интуитивно делаете

Виктор Петров #:

Для конца прошлого столетия - хорошая идея, так всё и работало. Но сейчас время нейросетей, а "чеклист" (он же - список факторов) уходит как минимум за тысячу позиций.
ПС работают не с поисковыми фразами, они работают с интентами, которые пытаются определить по множеству факторов: кто спросил, откуда, в какое время, что спрашивал раньше. В зависимости от этого будет сформирована выдача.
Второй момент: множество важных факторов, определяющих место в выдаче, определить вообще нельзя. Никакими сервисами.
Факторы в списке - также динамические. Сегодня это работает в плюс и сильно, завтра - никак, послезавтра сайт за это будет пессимизирован. 
Более здравая идея - это анализ молодых сайтов, хорошо растущих в выдаче. У них ещё нет сильных хостовых, всё ссылочное - ещё без шума, и можно делать более точные идеи и гипотезы.

нейросети - это надстройка над теми базовыми факторами которые еще с прошлого столетия.

как в автомобиле сколько электроники и наворотов не делай, а колеса двигатель кузов и после уже автопилоты вские.

молодые которые хорошо растут - тоже имеют определенные особенности которые можно измерять "по чеклисту"

за динамический поиск - не такой уж он и динамический - есть те кто прочно сидят в топе. а есть те кто далеко внизу так же прочно. и у этих проектов есть отличия. и даже по "прошлостолетнему чеклисту" видны вполне явно. 

вопрос только в том чтобы не руками собирать эти данные по частям с разных анализаторов, как тут выше советуют коллеги ученые, а сделать машинный анализ.

одна лирика от коллег, с вашего позволения.

вопрос открытый.

vold57 #:
Ценность работы специалиста заключается в ручной работе, а не в полном автоматизме.

в этом то и печалька.

поисковики диктуют свои алгоритмы, а люди сидят и вручную подстраивают под них свои проекты.

вся автоматизация заключается в том кто больше рабов-рутинщиков сможет содержать и мотивировать.

алгоритмы усложняют, факторов прибавляется, подстраивать все сложнее. рабов нужно все больше.

это так, лирика.

по теме: может кто-то все таки подскажет сервис.

Антоний Казанский #:

Нечто подобное делает каждый сервис, который пытается сформировать перечень конкурентов при анализе пользовательского сайта.

каждый сервис делает это по частям.

vold57 #:

Хотите получить значения параметров для попадания только в топ 1, чтобы не оказаться в ситуации, когда придется отвечать на вопрос почему некоторые параметры (характер сайта, ссылочные показатели, объем текста на странице, количество вхождений запроса и т.д.) близлежащих мест в топе значительно отличаются? 

отличаются согласен. это если брать несколько сайтов рядом стоящих. а если брать по очереди из топ 100 по каждому параметру, то получится тенденция.

и то что сайт например с хорошим ссылочным которое компенсирует фиговый текст а другой с супертекстом но ссылочной не очень в единичном случае приоритет не понятен а в больших списках будет заметно.

blackgold:
все, нашел чат.

в чате полуроботы "помогли" отправить заявку на имейл. очень надеюсь что ответят не боты.

vitzer:
общался с ними через чат. Общались не боты - живые люди.

Где вы нашли чат, подскажите пожалуйста.

Я кроме этой формы которая по кругу водит и задайте вопрос сообществу ничего больше не нашел.

https://prnt.sc/rx52ri

все, нашел чат.

vitzer:
правда, там взломали аккаунт)

спасибо читаю

---------- Добавлено 11.04.2020 в 00:15 ----------

vitzer:
А подтверждение по СМС было включено?

было. его кто-то мог отключить без подтверждающего смс, которое приходит на мой номер?

---------- Добавлено 11.04.2020 в 00:18 ----------

то что двухэтапка защищает понятно итак. вопрос в другом

vitzer:
Я так понял двухфакторной индентификации аккаунта Гугла не было?

нет, но надо было, всегда собирался сейчас сделать когда видел красную строку.

а смс подтверждение при малейшем вздохе сюда не относится? и где уведомление на почте об отвязке, или при куче уведомлений и рекомендаций,которые закрывать надоедает.

боту влом прислать письмо что меня свергли?

ну или запросить смс. я хз в их политике.

мой аккаунт мои обявы мой плательщик, мой телефон, мои устройства входа. т.е. куча дачтиков для бота чтобы заподозрить и спросить хотя бы смс, и тут на тебе.

Всего: 406