Смотрите лучше в сторону пакетного размещения на PBN.
Так хотя бы какая-то гарантия сохранённости ссылки, а прогоны - всегда были довольной спамной темой, где проставленные ссылки со временем пропадают чуть более, чем полностью.
Да, 2 января 2025 года.
Антоний, я тут в общем читатель. Но тему вашу с яндексом видел. Тут поиска нет, поэтому не могу найти, ответы будут вашего интервью, или их уже не ждать?
Сложно искать из-за флуда...
- Тема закрыта модераторами, поэтому разместить результат в тему для меня не представляется возможным;
- Итоговый материал размещен на моём сайте и общедоступен.
Надеюсь, без труда найдете. Не найдете - пишите, помогу.
Вопрос в другом, у меня вот допустим есть статья «Как наши космические корабли бороздят просторы Вселенной», и в другой статье в блоке похожих встречается этот текст. И когда в Google ищу «Как бороздить Вселенную», то сначала нахожу нужную статью на первой позиции, а где-нибудь на 2 -й или 3-й странице выдачи может быть другая статья, которую Google тоже счёл релевантной этому запросу, просто потому что там в блоке похожих есть ссылка на эту статью и текст запроса.
Т.е. помимо основной страницы есть ещё куча страниц, которые, якобы, тоже имеют релевантность по этому запросу.
В общем, это вполне базовые вещи. Сайт представляет собой коллекцию документов, у каждого документа есть свой показатель релевантности по соответствующим запросам. Само собой часть из коллекции документов имеет пересекающуюся релевантность (для общего запроса есть своя регрессия релевантности - от наиболее релевантного к менее релевантному). Когда релевантность нецелевого документа перекрывает целевую посадочную страницу, говорят о каннибализации запросов.
То, что по отдельному запросу ПС может ранжировать несколько или множество документов - это нормально. Если вы сделаете попытку внутреннего поиска в конструкции [site:domen запрос], вы увидите соответствие группы проиндексированных документов релевантные заданному запросу. Это не всегда будет соответствовать фактической сортировке релевантности по убывающей, но между тем это даёт некоторое представление.
Элементарно, слово (термин) или часть запроса, или запрос целиком может в том или ином виде присутствовать на множестве страниц, следовательно, эти страницы будут в приоритетной релевантности по базовой оценке весов tf/idf.
И вопрос в том, как это в целом влияет на ранж. Не сам блок с похожими, который в aside, а наличие других страниц, релевантных этому же запросу.
Стоит ли за это переживать и как лучше сделать в идеале, избежать этого момента на новом сайте или забить.
Переживать не стоит. Стоит понимать и соответственно предпринимать меры, которые будут помогать избегать каннибализации запросов.
Это:
- Оценивайте и соизмеряйте ключевую плотность для целевой (посадочной) страницы;
- Выполняйте перелинковку с анкорным содержимом в пользу посадочной (акцептора);
- Прорабатывайте поведенческие, чтобы они были актуальны для посадочной страницы, а не для каких-нибудь доп. листингов, куда может сместиться приоритет релевантности.
Ну и с техничка + внешнее ссылочное, с этим всё стандартно.
p.s. Если прям очень хочется можно заморочиться тем, чтобы в блоке анонсов, там где выводится содержимое части текста выводить текст не как он есть, а через метод JS unescape - индексироваться такой текст не будет, а следовательно при индексации нежелательного текста тоже не будет, хотя пользователи его визуально увидят.
Да, более доверяют более возрастным и зрелым специалистам. Но это, так сказать, в первом круге внимания.
Кроме профильных навыков и знаний, обращают внимание на много что, в том числе и на грамотность, культуру, такт, умение решать операционные задачи, стрессоустойчивость, многозадачность и многое, многое другое.
В общем, можно сказать, что при прочих равных определяют soft скилы.
На удалёнке с возрастным специалистом более охотно идут на контакт, но опять-таки возраст сам по себе не ценность.
Ценно то, сколько в человек в профессии и какими задачами он непосредственно занимался.
Напористо и безустанно пережёвываешь давно неактуальную информацию. Ты ещё что-нибудь про землю на трех китах заверни.
Сливинский уже многократно признавал и подтверждал проблему накрутку. С того момента как он на Вебмастерской сказал - "Да, проблемы есть, мы признаем" - прошло как минимум 3 года.
Ирина, Александр вам правильно говорит, Яндекс может проиндексировать то, что доступно. Ваша задача как вебмастера - настроить сайт так, чтобы дубли и второстепенные страницы (если они возникают), не индексировались. Лучше конечно технически предусмотреть, чтобы движок не генерировал страницы с одним и тем же содержанием.
Право ваше, но для себя же вы можете сделать лучше, если правильно подойти к вопросу и предусмотреть те вопросы, которые могут качественно улучшить ваш сайт.
Яндекс - Яндексом, мы все находимся в обстоятельствах, когда необходимо адаптировать под его условия, но делать это можно по-разному. Можно плюнуть и бросить, а можно стараться улучшать.
Просто 29к страниц у авторского сайта вязаных игрушек - это не нормально. Либо сайт не авторский, либо технически не отработан и в Яндексе подавляющее большинство страниц - мусора и трафика из-за этого может не быть.
Ни Яндекс, ни форум, ни комьюнити на нем - не виновато в этом.А нервы побереги, негатива к тебе никакого нет.
Всё верно. Скорее всего проблема в реализации самого сайта или настройках движка.
Если на сайте внутренние дубли и большое кол-во служебных страниц, которые индексировать не нужно, вот объём и раздувается до неадекватных размеров.
Трафик нужно собирать целевыми страницами, оптимизированными под запросы. Если это просто авторские объекты у которых нет спроса и содержательно страницы не описаны, то вне зависимости от кол-во страниц трафика может не быть.
Вот с этим довольно спорно, под VPN-ами также работают люди.
Всех - конечно нет, но заблочить провайдеров типа Битерики, Хецтнер и ряда других бывает полезно и зачастую снимает 80% назойливого бот трафика.
Зависит от его масштаба деятельности и задач. Точно вы их никогда не узнаете. Да и самих ботоводов как правило множество.