maksimizh

Рейтинг
5
Регистрация
08.02.2021
Сергей Ефимов #:
Парни, как у Вас с выкидыванием сайтов из РСЯ. Не мусорных. Прецеденты есть? Как исправляли? Или ну его этот Яндекс?

Вчера отключили. Причём я сам написал, чтобы проверили "можно-так или нет"😂, закрались подозрения, что, возможно, по краю прошёлся. Задал простой конкретный вопрос и нет, чтобы ответить - нельзя, исправить, срок сутки или как там по-партнёрски обычно делается, ответ пришёл шаблонный через несколько дней - отклонен модерацией по причине несоответствия правилам участия в РСЯ с рекомендацией комплексно поработать над качеством сайта. Никак не понимаю шаблонную работу техподдержки. Качество сайта - это как бы обширная тема) Ведь конкретный модератор принимает решение, так хотя бы пункт правил напиши, над чем конкретно поработать. Иначе человек опять будет писать в техподдержку, а там другой человек опять вникать будет и тратить время, разве это эффективно? Короче, ладно. Сопроводительное письмо, я так понял, тоже не читали, так как ответа на прямой вопрос не последовало. Пока решил погонять блоки Гугла, посмотреть, что там с доходами, а там видно будет.

forumovod #:

Переобход в вебмастере вновь открыт?  Вроде бы недавно гугл заморозил эту возможность.

Заработал, но у меня не больше 10 страниц в сутки.
Vladimir SEO #:

вы про переобход в вебмастере ? забейте

улучшить индекс можно :  ссылочным , пингом, кросспостингом , быстроботом . но тексты все равно будут уплывать

Да, через Search Console. То есть великий Гугл никаким способом не принимает оперативно страницы, как делает Яндекс? Читал про передачу через Indexing API, танцевал с бубном, но ничего не вышло.
truserted #:
Три дня радует, при посещении 1200 111, 105 и на сейчас 95 руб. Ранее и до 45 кое как доходило. Но наверное кто то "вернется с ответом" и все отрегулирует как положено🤣
В декабре за 2300 чел. набегало до 180, вчера за 2600 почти 130 с блока. Но если сравнивать с 20 января, когда за 1900 чел. пришло 10 руб. 29 коп, то да, тренд бычий😁
sochi-russia #:

Как докажите, что вы первоисточник? Юридические документы на текст есть? Если нет, разговор ни о чем. Так было всегда с текстами.

Не про доказательства речь идёт, а про непонятные действия алгоритмов поисковика. Я то знаю, что пишу первый, проверяю перед публикацией. Я ещё понимаю выдачу на первой позиции, если копираст скопировал, хоть что-то отредактировал, хоть на 5%, +  имеет бешеный ИКС и другие погоны. Типа авторитетное издание исправила значительные ошибки, поэтому пользователю полезнее второй вариант читать. Но в данном случае получилось так, что первоисточника репрессировали, а несколько полных копий без каких-либо исправлений регулярно тусуются на первых  позициях, что и послужило созданию этой темы. Но, повторюсь, меня уже выпустили, меньше суток отсидел.
Mik Foxi #:
Разве "малополезный контент" это про уникальность? Если конетент фигня и генеренка, то не важна его уникльность, за "качество" яндекс и банит.

Малополезный контент - термин-то какой) У каждого контента найдётся свой читатель. Пусть человек пишет о своём на своей волне и его читают 10 человек в месяц - его работа больше пользы делает для общего информационного пространства, чем копии одного и того же текста даже без малейшего признака рерайта на первых позициях в выдаче.

Написал Платону, приведя свои доводы.
Ограничения сняли спустя 12 часов. Ну что сказать. Оперативно сработали👍. Значит ещё люди управляют роботами, а не наоборот)
Есть ли логика ставить фильтр на весь ресурс по причине определения роботом, что он содержит бесполезный контент? Может логичнее работать с каждой конкретной страницей при включении её в индекс?
    То есть при добавлении в индекс страницы робот сравнивал бы её с уникальностью с уже имеющимися в базе и не добавлять в принципе при совпадении процентов на 95-100, так как это наверняка копипаст. Соответственно, когда робот при сравнении не находит совпадения - ставить странице якорь первоисточника и при запросе цитаты из текста либо по ключевым словам выдавать этот первоисточник.
    В результате и вычислительные мощности не страдают и сайты за копипаст унижать нет смысла. Генераторы нового контента генерируют, а копирасты думают, стоит ли копировать, если в индекс оно всё равно не попадёт.
    Что-то вроде этого, наверное, реализовано у Гугла, который исключает из покрытия конкретные страницы. Есть ли здесь на форуме человек, как Дмитрий Громов, но который связан именно с Яндекс.Вебмастер и фатальными проблемами сайтов? Или может на каком-нибудь другом форуме есть такой специалист? Только не пишите, что Платон - последняя инстанция😁
12
Всего: 18