Уха-ха-ха. Мои оценивает на 6-9. Для научных текстов не подходит. Пометил "у простейших" как неопределенность, хотя это группа организмов. Бракует скобки, без чего в принципе не обойтись. Чем так плохи причастия и страдательный залог?
Загнал статью по химии, пишет неуклюжий синтаксис. Там названия типа флавинадениндинуклеотид в скобках.
Яндекс гонит в директ. Это не вопрос. Причем тупо.
У меня инфо-сайты, но зимой делал родственнику одностраничник под запрос "Перевозка грузов Мухосранск" (население города 500 тыс.). Конкурент основной - один, сайт его сделан по всем понятиям сео, стоял первым в органике. Мой стал третьим. В апреле конкурент опустился на 5-6 позицию, сайт который делал я - в начало второй страницы. Если бы была жесткая конкуренция, улетели бы дальше.
Первыми в органике оказались авито, доски объявлений, федеральные компании (офисов в городке М у них нет).
По идее яндекса аудитория не видя релевантной органики, 1) чаще кликает по директу, 2) коммерсанты идут в директ. Но в данном случае предприниматели такого уровня тратится не будут на директ (на сегодня там только один местный, остальные тот же авито и федералы), а пойдут как раз на эти доски объявлений.
Яндекс делает так, что мелким оффлайн-фирмам нет смысла делать сайты. Клиентов все равно находят не через яндекс.
Как падение трафика связано с поведенческими? Если только из директа приходил целевой, а из органики - нецелевой.
Для теста повесил на один инфо-сайт тизеры в конце страниц. На отказы и поведенческие по-идее они не влияют. В последний ап яндекс этот сайт вообще выкинул из выдачи. До этого в апреле этому сайту яндекс срезал траф в пять раз. Я гадал, за рекламу advmaker'а или из-за отказов, которые вызывает реклама типа мобильный фулскрин. Теперь больше уверенности, что не ПФ играет роль, а яндекс накладывает какой-то понижающий коэффициент (или вообще банит сайт), если встречает код конкурирующих рекламных бирж.
Понимаю, что у большинства здесь коммерческие сайты. Но яндекс вполне может делать нечто похожее, если "замечает" что-то, что ему самому не выгодно.
Тут все индивидуально.
Наверно, если страница под НЧ то лучше коротко. Если СЧ то тему раскрыть, статью структурировать.
Пользователь должен заходить, оставаться и читать. Если он заходит и видит портянку, а ему нужен конкретный ответ на конкретный вопрос, то закроет. Очевидно кроме бадена в апреле были введены фильтры и за низкие ПФ.
Википедия пишет тяжело для понимания, тексты на fb.ru бреды табуна сивых кобыл. Ваш текст должен быть лучше. По делу, при этом читаться легко и непринужденно.
Кароч пацаны. Дело было так. Я. придумал алгоритм "управляемого хаоса".
Суть. Ввожу кучу коэффициентов-параметров, программных кнопок/тумблеров/переключателей. Чем больше тем лучше. 2^10 уже 1024. А если не 2 и не в десятой, мильоны разных комбинаций а ля раскладок выдачи. Фиг ты угадаешь теперь как оно лучшее оптимизировать то.
Теперь. Смотрю, при таком раскладе вот эта пачка сайтов давно неплохой траф получает. Зажрались сцуко, деньги есть. Я. ж не дурак их бесплатно кормить, пусть делятся. Ищу такую комбинацию тумблеров, чтоб эта пачка приопустилась, а остальных затронуло поминимуму. 🤣 Вэлком в директ.
На сайтах образовательной тематики траф всегда сильно (больше чем в других тематиках) проседает летом и в январе.
У меня не баден. Убрал мобильный фулскрин, позиции вернулись.
Под фильтром на одном сайте (информационный) делал анализ, какие страницы не просели. В основном те, где текст был написан интересно и просто. Чтобы читать, не надо напрягаться. Там ПФ скорее всего были хорошие.
Сами же и ответили. Фильтр накладывался только на топовые сайты.
В рамблере и мейле качество поиска намного хуже яндекса?
Где-то была статья в блоге яндекса (ссылку не нашел) про матрикснет и машинное обучение. Суть: яндекс оперирует большим количеством параметров, чем другие поисковики. Но больше не значит лучше. Делая систему более гибкой, велика вероятность прихода хаоса. Такими системами труднее управлять, они менее предсказуемы.
Если есть достаточный минимум параметров и прозрачное программирование, приводящее к приемлемой выдаче, то есть ли смысл городить в сторону искусственного интеллекта, когда человек в своем мало что понимает?
Гугл скорее всего придерживается стратегии "надежного минимума".