Ну а кто такие "чектраст"? Это официально разработанный инструмент от Гугла? Обыкновенный частный и независимый анализатор сайтов в своём исполнении и теме, которых очень много на сегодня: кто аудит сайтов помогают делать, кто на исходящие ссылки и траст анализирует. Многие пользуются им, но только как "рекомендация" или "взять во внимание" что он там показал.
Каждую площадку, где собираешься размещаться нужно анализировать вручную. Т.е. делать домену-донору реальный seo-аудит, но только основной, не полный комплексный. Тогда уже принимать решение после анализа домена - писать ли владельцу о своём согласии разместиться у него, или нажимать ли в личном кабинете биржи "Купить ссылку" ))
Но тут разумеется нужно понимать и знать как проверить донора, сам аудит сайта. А это уже немного другая история и тема...
Возможно выскочка, который рано или поздно понизится. Так-то, сео-текста уж сильно много для главной страницы, как и ключевых фраз. Продавило мозги бадену так, что он решил что там написано всё как СДЛ.
Также ссылочный профиль имеется не малый, может оттуда от площадок некий "сигнал доверия" пролез.
upd: отсюда "все-катализаторы.москва" 301 идёт на упомянутый в посте домен. это ни о чём, но всёже...
За переспам в мета-тегах, переоптимизацию ключами возможно подействовала Панда. Утихомирить контент текстовый нужно и успокоить агрессивное упоминание "1С" со всеми возможными вариантами фраз в мета-тэгах, момент которых у вас по всему сайту.
Также не без внимания конкуренция тематики, там в любом подобном направлении у всех проблемы с желанием быть в ТОП.
upd:
Да там не просто болд, а везде сплошной <strong>
Заказывайте сразу seo-аудит с последующим исправлением кучи обнаруженных багов на вашем сайте, и выполнением рекомендаций от аудитора... Не ждите чудес. Пока вы не проведёте над сайтом всю необходимую внутреннюю сео-оптимизацию, бесполезно надеется, что от советов на форуме всё пойдёт как у конкурентов: по маслу.
п.с. А вот от этого:
Есть сайт ... .. статьи, новости, обзоры и т.д. ... Сайт совсем свежий,... Планируется добавление по 1-2 статьи в день.
все поисковые системы уже давно трещат по швам. Им некуда девать тех, кто до вас там были и есть давно. Но всё же, проталкиваться как-то надо, дерзайте! ))
Как-то не заметил, может на форуме обсуждалось уже об инструменте Lighthouse ?
https://webmaster-ru.googleblog.com/2018/02/lighthouse-seo-audits.html
Думаю эта вещь тоже не без внимания. Своего рода расширенный вариант-версия PageSpeed Insights
Такого "конкретного" желания и возможности не было никогда)). Ссылки раньше покупали как в общем, для попытки подействовать этим событием на свой ссылочный профиль, с последующей надеждой на улучшение ранжирования в любой поисковой системе.
В прошлом году преобладала площадка Миралинкс. Но опять же... любой там сайт-донор надо анализировать вручную, как бы это не было сложно. На сегодня не осталось толковых и незаспамленных площадок вообще. Пингвин с недоверием относится к ресурсам, имеющий десятками исходящие ссылки.
А таких площадок на том же Миралинкс почти 90%
А как давно вы устранили косяки? Судя по комменту ранее, вроде сразу же.
Зря вы некоторые мелочи не устранили в течении года. Когда проблема с сайтом и он каждый месяц падает, значит гугл на его место подвигает другие правильно оптимизированные сайты.
Из-за дублей мета-описаний проблема может возникнуть у любого сайта. Тем более вы их усилили открытием пагинаций. Местами тайтлы у вас очень неинформативные и повторяющиеся - http://prntscr.com/il2bbm + http://prntscr.com/il2eb4 Такого много по сайту. Также скорость загрузки ( точнее оптимизация по PageSpeed Insights) немного проблемная для успешного продвижения.
Но понятно что последнее слово за ссылочным профилем. Может там появилась ранее глобальная проблема, а не из-за сео-оптимизации...
Как-то выпало из наблюдений... Такое впечатление, что сегодня главное контент и "полезность ресурса": посещения, поведенческие, шэринг и прочие сигналы. А то что домену 10 лет - возможно уже не факт для ПС.
Интересно, а что из этого сейчас актуально в Google? (это из той портянки о 200 факторах-баянах)
Значит тогда, это настройка "2. Второй вариант:", из ранее предложенных.
yonen, Тут если взять любой сайт, там всегда можно найти недочёты, кто бы его не оптимизировал. Но они в основном мелочные и врядли глобально влияют на сайт в поиске, но всё же...
А тем более, если это хвалёный многими Битрикс! У вас сколько ушло пунктов ( не времени) по допиливанию его кода до божеского seo-вида? ))
Для гугл думаю стоит вам еще раз поработать над оптимизацией "больных" мест. Вы все страницы пагинации отдаёте в индекс (http://prntscr.com/ik226o), но они с дублированными мета-описаниями. Те же title и description у вас дублируются. А это более 140 страниц. И потом они местами далеко неинформативные - https://prnt.sc/ik22t4
50% Картинок по сайту без alt= и title=, какие-то ошибки в микроразметке - https://goo.gl/UPNWTK, оптимизация для ПК не айс - https://goo.gl/1Eft5f
Словом, если для гугл, то элементарное для него надо подправить. Что еще? Ну для этого полный аудит надо делать.