Сейчас практически так и есть, посмотрите сколько людей по форуму не знают что, отчего и как. Попадание сайта в топ не случайно, просто люди на автомате совершают набор "общепризнанных мер" которые конечно же влияют на вывод сайта в топ, но даже при повторении этого успешного кейса к такому же сайту не приведет к точно такому же результату. Т.е. сеошники влияют дай бог на 50% результата (а 50% это другими словами "как фишка ляжет") вот по этой причине вы и видите, что 80% серча довырывают последние волосы и говорят что все это заговор. Я уж не говорю о тех в п...пу левых спецах и конторах, которые берут на себя смелость давать какие то гарантии относительно seo.
хорошо, что ты поржал, только это я писал о гепотетической возможности того, что даже если 80% наших бравых сеошников офигенные кодеры логики, что даже при этих условиях они не отдуплят ничего))))---------- Добавлено 24.08.2017 в 12:29 ----------
Смысл текста оценивается законом ганнинга, лингвистический анализ, семантический, интентный анализ, вот как.
1. уверен на 99.9999999999% что сайт не может попасть в топ в результате ассесорной оценки, т.к. там нет инструментов прямого влияния на ранжирование конкретного сайта
2. да, там происходит мега сложная схема подсчета. назовем это так
3. сеошник видит сайт в топе да, анализирует его (в реалиях зная не больше 50 факторов из более чем 600) и то не имея ни малейшего представления какой фактор какой вес дает и какое совокупное действие факторов что дает
4. исходя из третьего пункта и выходит, что допустим сделает сеошник по одному кейсу два почти идентичных ресурса, но результат то он повторить никогда не сможет, потому что там такая дикая прорва оценочных комбинаций, у рядового сеошника нейронов в мозгу меньше, чем связей факторов и весов в алгоритме
Я вот к чему)
Сеошники просчитают??? Как позвольте поинтересоваться. Окей, допустим 80% сеошников хорошие кодеры с пониманием логики построения сетей, допустим, что они коллективным разумом определят ну 150 факторов, а дальше что? Какова будет погрешность?
Обучится то он норм, а вот сколько при этом ресурсов ниже среднего пострадают, другой вопрос))) Отсев будет приличным, это очевидно исходя из соотношениянорм ресурсов к говносайтам, которых на порядки больше, вот их бы покосил, было б супер, причем если бы прям радикально покосил бы.
То есть ты правда считаешь, что перед этим данные никак не проверяются?))) Если бы так делали, то был бы ад, причем полный, он не правится, а всего лишь учитывает этот сигнал, дальше проверит этот сигнал на выборке, оценит результат и составит прогноз, а не тупо применит))))
Если брать в общем, то в процентном соотношении да, большинство ИМ нищебро. Но даже нищебро уж давно отдуплили, что динамика развития ecommerce зиждится на платном размещении. Ждать когда придет траф с выдачи (если новый сайт) можно долго, а чтобы товар был ликвидным, естественно прутся в платное размещение
С чего, с чего все паникуют по поводу толоки??? Вот прям там кони сидят в штаб квартире, доверить асессорам ручные правки алго, доверить огромный приоритет толоковцам. Данные, поступающие с толоки являются всего лишь сигналом, который тоже переваривается алгоритмом, если данные схожи с прогнозируемыми данными самого алго, он их учитывает, если нет, то отбрасывает. Такое ощущение, что тут собралась толпапараноидальных синяков и торчков, которые настолько запараноили в своих догадках относительно алгоритма, что сами в них уже верят.
Горбатого могила исправит, ты в мед учреждении работал и натырил там много всего чтоле?
Скажи, вот тебе 4 цыфры: 300к, 255к, 100к, 85к. Разбей их на две группы по значимости.
Миш, я родился в не самом благополучном районе МСК и знаю как с торчами надо общаться, мне не сложно тебе повторить, правда.
Хотя кому я чего доказываю??? "Спецу", который фигачит дешевые аудиты по рублю (я реально сомневаюсь в качестве аудитов за килорубль) и у которого сайт вот такое отдает, сертификат гуано???
Признался в чем Миш?
300000 - 100%
255000 - 85%
Равнозначный - имеющий такую же значимость, а 300к и 255к, это тебе не разница в 50%. Я нигде не писал про одинаковость трафика на примере этих крупных ресурсов коммерческих. Окей, возьмем ресурсы с меньшей посещаемостью и с гораздо меньшим ассортиментом, к примеру магаз, торгующий только аккумами, там разница трафа между гуглом и яндексом сводится к 10%. Десять процентов Миш!!! У тебя погрешность в работе с ссылочным >50%? о чем ты? До чего докапаться хотел??? Тупо вброс сделать?