То что в аптеках возникают такого рода очереди это, конечно, немного раздражает. А вот знания "фрамацевтов" о препаратах просто ахтунговые. Когда туда приходят за советом в подборе лекарства от какой-нибудь болезни, это просто жесть - здоровье убивается в разы быстрее.
А "Сбер" искренне ненавижу ))) Альфа рулит.
и на том Спасибо!
а Яндекс он такой, он может ))
у меня нет, я просто заранее паникую ))
никогда не сталкивался с такими ссылками, вот и не знаю что делать. возможно, они вообще не индексируются, но никакой достоверной информации я не нашел .
это типа, кышь отсюда школьнеГи?🤪
ладно, не буду никому взрывать мозг:)
все тысячи ссылок? ))
поясню, что я имел в виду.
предположим оптимизатор хочет, чтобы на страницы доноры ссылалось минимум 10 сайтов.
он ищет по первому стандартному фильтру, экспортирует список страниц-доноров, проверяет своим скриптом, оставляет 30%. ссылок. то есть "отказ оптимизатора 70%"
ищет по фильтру pr=1, отказ оптимизатора 50%
ищет по фильтру pr=2, отказ 20%.
логично сделать вывод, что наиболее быстро подобрать ссылки используя последний фильтр, причем с такой погрешностью возможно покупать ссылки уже на автомате.
пример с внешним ссылками, конечно, не самый удачный (только ленивый не поймет, что ему изначально стоит покупать с pr), но есть другие критерии, которые явно привязать к стандартным фильтрам не получится, хотя некая взаимосвязь вполне возможна.
до закупки, что-то типа закупки "полуавтоматом" в sape.
да
это сделать практически нереально в чистом виде, так как требования у всех рознятся (ну не точна наука seo, не точная..).
оптимальный способ решения такой проблемы - возможность экспорта заявок на покупку на начальном этапе. то есть экспортировал и делай что душе угодно: кто-то в скрипт свой засунет, кто-то с бубном побегает, кто-то всех глазами просмотрит и тд. как только это будет реализовано - система приобретет смысл на этапе закупки, а сейчас там провал...
если такой подход реализовать, тогда можно вести статистику по "отказам оптимизатора" по фильтру. то есть оптимизатору через какое-то время можно подобрать набор стандартных фильтров, которые дают максимальный процент площадок, соответствующим его требованиям.
я так понял, Yaxa спрашивал - есть ли предварительная обработка системой доноров по каким-то принципам (рабочий/зафильтрованный сайт и тд.). Или все в руках оптимизатора и никаких дополнительных по умолчанию фильтраций со стороны "рук" нет?
необязательно делать точность до 0,1 уника.
этот сервис может использоваться например для выбора запросов, которые "поклеил" в вордстате яндекс.
в соседней ветке человек интересовался продвижением запросов "купить холодильник" и "холодильник купить". вордстат предлагает только первый вариант, но из общего числа посетителей по этим запросам где-то 25% приходится на второй запрос.
сервис прогноза посещаемости как раз даст возможность прикинуть, стоит ли двигать "неочевидные" запросы или нет. причем не за счет точного прогноза по каждому запросу, а за счет сравнения соотношения количества посетителей.
опять же "мертвые нч" можно тоже исключить.
нет, просто по некоторым "неправильным" запросам траффик больше, чем на красивых. конкуренция соответственно тоже. кроме того, зачастую один из таких запросов геозависим, а другой нет.