- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет. Опишу вкратце суть:
да я фантазер))
какой сейчас сервис нечто подобное делает, подскажите, спасибо
Ценность работы специалиста заключается в ручной работе, а не в полном автоматизме. Одними сервисами собираются ТОПы по группам запросов, другими сервисами отдельные показатели, которые как вы считаете, влияют на ранжирование, а дальше начинается аналитика.
какой сейчас сервис нечто подобное делает
Нечто подобное делает каждый сервис, который пытается сформировать перечень конкурентов при анализе пользовательского сайта.
Туда могут попадать и хостовые характеристики, и характеристики отдельной страницы, и метрики по анкор листу, но нужного набора параметров для попадания отдельной фразы в TOP1 вы всё равно не получите.
Это всё равно, что изучать рекламные предложения близлежащих аптек в погоне за идеальным здоровьем.
получаем набор параметров для попадания в топ 1 по данной фразе.
Хотите получить значения параметров для попадания только в топ 1, чтобы не оказаться в ситуации, когда придется отвечать на вопрос почему некоторые параметры (характер сайта, ссылочные показатели, объем текста на странице, количество вхождений запроса и т.д.) близлежащих мест в топе значительно отличаются?
Хотите получить значения параметров для попадания только в топ 1, чтобы не оказаться в ситуации, когда придется отвечать на вопрос почему некоторые параметры (характер сайта, ссылочные показатели, объем текста на странице, количество вхождений запроса и т.д.) близлежащих мест в топе значительно отличаются?
отличаются согласен. это если брать несколько сайтов рядом стоящих. а если брать по очереди из топ 100 по каждому параметру, то получится тенденция.
и то что сайт например с хорошим ссылочным которое компенсирует фиговый текст а другой с супертекстом но ссылочной не очень в единичном случае приоритет не понятен а в больших списках будет заметно.
Нечто подобное делает каждый сервис, который пытается сформировать перечень конкурентов при анализе пользовательского сайта.
каждый сервис делает это по частям.
Ценность работы специалиста заключается в ручной работе, а не в полном автоматизме.
в этом то и печалька.
поисковики диктуют свои алгоритмы, а люди сидят и вручную подстраивают под них свои проекты.
вся автоматизация заключается в том кто больше рабов-рутинщиков сможет содержать и мотивировать.
алгоритмы усложняют, факторов прибавляется, подстраивать все сложнее. рабов нужно все больше.
это так, лирика.
по теме: может кто-то все таки подскажет сервис.
Всем привет. Опишу вкратце суть:
Для конца прошлого столетия - хорошая идея, так всё и работало. Но сейчас время нейросетей, а "чеклист" (он же - список факторов) уходит как минимум за тысячу позиций.
ПС работают не с поисковыми фразами, они работают с интентами, которые пытаются определить по множеству факторов: кто спросил, откуда, в какое время, что спрашивал раньше. В зависимости от этого будет сформирована выдача.
Второй момент: множество важных факторов, определяющих место в выдаче, определить вообще нельзя. Никакими сервисами.
Факторы в списке - также динамические. Сегодня это работает в плюс и сильно, завтра - никак, послезавтра сайт за это будет пессимизирован.
Более здравая идея - это анализ молодых сайтов, хорошо растущих в выдаче. У них ещё нет сильных хостовых, всё ссылочное - ещё без шума, и можно делать более точные идеи и гипотезы.
каждый сервис делает это по частям
Каждый сервис делает это в пределе своих функциональных возможностей.
поисковики диктуют свои алгоритмы, а люди сидят и вручную подстраивают под них свои проекты.
вся автоматизация заключается в том кто больше рабов-рутинщиков сможет содержать и мотивировать.
алгоритмы усложняют, факторов прибавляется, подстраивать все сложнее. рабов нужно все больше.
Вы видите рабочий процесс в каком-то исключительно мануфактурном свете.
Дело же не только в кол-ве рук, но и в экспертизе (интеллектуальных возможностях), ресурсах, административном аппарате. Многое в бизнесе строится на человеческом факторе - предприимчивости, творческой инициативе или как сейчас модно говорить - эмоциональном интеллекте.
по теме: может кто-то все таки подскажет сервис.
Сервиса, который бы сразу совмещал всё - такого увы нет, да и сама идея расчёта факторов в TOP для конкретной фразы довольно утопична и инфантильна, уж извините. Как вам уже правильно сказали выше, есть факторы (например ассесорной оценки) которые никаким сервисом не просчитаешь и самое главное поисковые системы намеренно конфигурируют свои алгоритмы так, чтобы их нельзя было формально рассчитать и формализировать (и это правильно).
Сравнительно неплохой аналитикой обладают сервиси Пиксель Плюс и МегаИндекс, но то, что вы хотите получить всё равно в готовом виде не получите, ибо универсального механизма для всех случаев информационных пользовательских потребностей нет и быть не может.
Для конца прошлого столетия - хорошая идея, так всё и работало. Но сейчас время нейросетей, а "чеклист" (он же - список факторов) уходит как минимум за тысячу позиций.
ПС работают не с поисковыми фразами, они работают с интентами, которые пытаются определить по множеству факторов: кто спросил, откуда, в какое время, что спрашивал раньше. В зависимости от этого будет сформирована выдача.
Второй момент: множество важных факторов, определяющих место в выдаче, определить вообще нельзя. Никакими сервисами.
Факторы в списке - также динамические. Сегодня это работает в плюс и сильно, завтра - никак, послезавтра сайт за это будет пессимизирован.
Более здравая идея - это анализ молодых сайтов, хорошо растущих в выдаче. У них ещё нет сильных хостовых, всё ссылочное - ещё без шума, и можно делать более точные идеи и гипотезы.
нейросети - это надстройка над теми базовыми факторами которые еще с прошлого столетия.
как в автомобиле сколько электроники и наворотов не делай, а колеса двигатель кузов и после уже автопилоты вские.
молодые которые хорошо растут - тоже имеют определенные особенности которые можно измерять "по чеклисту"
за динамический поиск - не такой уж он и динамический - есть те кто прочно сидят в топе. а есть те кто далеко внизу так же прочно. и у этих проектов есть отличия. и даже по "прошлостолетнему чеклисту" видны вполне явно.
вопрос только в том чтобы не руками собирать эти данные по частям с разных анализаторов, как тут выше советуют коллеги ученые, а сделать машинный анализ.
одна лирика от коллег, с вашего позволения.
вопрос открытый.