Подтверждаю. Start Seo заявляет, что работает 2-ой месяц, но динамика круто вверх идёт уже в первые дни.
Полный цикл работ с Гуглом не укладывается в часы, поэтому либо вводите в заблуждение, либо подтасовываете факты, либо выдаете одно за другое.
Из написанного следует, что проблема была на их стороне или на стороне сайта?
Соглашусь с коллегами, что биржевые статьи рассматривать не стоит. Это раньше было актуально набивать статейный раздел тематическими статьями абы для контентного развития и перелинковки. Сейчас скупать статьи с Адвего - напрасная трата денег. Если не сможете найти того, кто будет прицельно грамотно и вкусно писать с использованием приёмов контент-маркетинга, то лучше не делайте вообще.
Все эти "семечные" рерайтно-водинистые статьи пользователям не нужны. Из дешевых биржевых статей вы ничего не выжмите - это либо унылые, либо наивные, либо претенциозные тексты написанные только ради объёма и продажи. Чтобы писать хорошие тексты, нужно очень хорошо себе представлять все срезы вашей ЦА и вашу товарную специфику.
Поэтому, либо вкладывайтесь в хорошего копирайтера, который не шарахается от сокращений типа AIDA, либо, если не по карману - направьте бюджет на освоение новых рекламных каналов.
Хорошие материалы у Нетологии, Специалиста (Бауманка), Udemy, Skillbox, по семантике и структурному проектированию можно послушать Ожгибесова, Кокшарова, Шахова. Со временем окунитесь в SILO структуру и семантические коконы - у Dr.MAx-а интересные материалы на эту тему.
Думаю, достаточно.
Насыщайтесь и дополняйтесь разнородной информации, у каждого свои подходы, взгляды, инструменты, хотя конечно база одна.
По-моему, знак вопроса лишний, он вероятно обрезает, ибо вариант нежадного квантора.
По инструкциям я разобрался (?), как строить и кластеризовать СЯ, сейчас буду этим заниматься. Предположим, у меня получится 30 кластеров. Что с ними делать? Для каждого кластера подобрать какую-нибудь вебстраницу из имеющихся просто по смыслу? Например, кластер A (самый высокочастотный) по смыслу подойдет для статьи А (3-ий уровень вложенности), а кластер M (середнячок по частотности) - дляглавной страницы сайта?
Или переделывать структуру сайта - при том, что имеющаяся структура предположительно идеальна и любая переделка ухудшит ее для людей?
Или что-то третье?
Вы задаете вопросы, которые затрагивают и структуру, и формирование семантического ядра и кластеризацию.
Эти вопросы надо решать на примере конкретного сайта. Череда ваших вопросов указывает, что вам нужно объяснять тематический материал на несколько часов подробных разъяснений. Вряд ли кто-то будет этим заниматься в формате ответа на форуме.
Поищите для начала SEO курсы по семантическому проектированию и кластеризации запросов - в интернете масса материалов.
А потом уже конкретный вопрос - с конкретным примером своего сайта спросите на форуме - поможем вам точнее определиться с рабочим решением.
Потому что, когда вы спрашиваете,
То исходя из того, что вы написали - там и третье, и четвёртое, и пятое.
Допустим. А как тогда вы, опираясь на свою уверенность и логику, обоснуете вот такой практический случай ?
p.s. Заранее оговорюсь - мне в этом вопросе не нужна помощь или какие-либо рекомендации.
Пример и вопрос именно в контексте запрещения индексации в robots.txt
Если WP, то можно посмотреть здесь. Насчёт того или иного компонента для WP я ничего не скажу, я сам работаю с Joomla-ой и меня вполне удовлетворяет RSFirewall.
Какой из них гуано, а какой нет тоже комментировать не берусь, познакомиться с функциональностью в любом случае будет нелишним, а там уже конечно каждый выбирает для себя.
да я в курсе, это просто была рабочая модель, на бурж оставлю только зарубежных, а их не так много, как ру- и укр
или реализую через отдельный файл с параметрами IP -1 на каждой строчке, а в htaccess будет 1 общая команда
Если у вас не самопис, а популярная CMS - посмотрите в сторону дополнительных компонентов брэндмауэров, они как правило уже имеют базовые настройки и фильтры для отсекания зарубежных ботов.
Воевать конечно нет смысла :) есть смысл прислушиваться к коллегам и учитывать их полезный опыт :)
Увы, недостаточно.
Как практика показывает Гугл инструкции robots может запросто игнорировать, и Яндекс увы тоже варианты /? и /*?* может игнорировать.
Ну, соб-но, мы это и обсуждаем :)
Увы неоднократно сталкивался с ситуаций, когда Яндекс индексировал вариант site.ru/? с копией Главной страницы, при явно запрете обхода в robots-е /?
Поэтому здесь эффективнее действовать через htaccess
А смотреть вы должны свой вебмастер, а не мой. И если оно туда попало, то будет долбить не один месяц.Вы похоже в свой вебмастер совсем не заходите, или первый раз с сайтами работаете? Не похоже по дате...
Естественно не единым вордпрессом. Но дан пример, вы что не в состоянии на его основе сделать под свой сайт?Или вам, что все на блюдечке с голубой каемочкой?))
Послушайте, что за фанаберия такая? С чего вы взяли, что кто-то должен по вашим наставлениям куда-то смотреть?
Что за высокомерие "вы похоже"? К чему все эти вальяжные гипотезы?
Есть пользовательский вопрос, обсуждается контекст вопроса и ищутся варианты ответа.
Вы предложили свой - Ok, ваше право. Другие участники форума предлагают свои решения.
Мне несложно. Мне ваши примеры под WP не нужны, я даже в них не вникаю, потому что нерелевантные данные мне в настройках не нужны и я пишу нужные мне настройки самостоятельно. Там где мне надо средиректить лишнее вида site.ru/? и у меня срабатывает редирект на Главную, а также где надо нахрен послать ссылочный спам вида site.ru/?go=http://site.ru срабатывает 403, причём с любым параметром.
В ваших же случаях, которые вы приводили - одно правило совершенно точно будет накладываться на другое, поэтому как минимум они требуют правильной очередности обработки. А второе - не универсально, о чём вам следом сообщили.
Так что уж если решились помогать - помогайте адресно, в контексте вопроса, а не в контексте личных привычек по своему сайту.
А вот здесь вы, справедливости ради, надо сказать, правы.
Здесь - нет. Если правилами запрещено, то индексироваться не будет (кроме случаев, когда правила игнорируются).
Поэтому вариантов, что сначала вопреки индексации проиндексировалось, а потом согласно старым правилам удалено из индексации - такого не бывает.
Бывает только в случае, если вы уточняете правила.
Хотя, если вдруг такое произошло, то это аномалия и этот вопрос интересно исследовать. Но в любом случае это нерелевантно общему правилу.
Это понятно. Но иногда дубли возникают не изнутри, а снаружи, когда, например, Яндекс начинает индексировать рекламные страницы по UTM меткам из Директа, которые дублируют оригинальные страницы, поэтому здесь в любом случае идёт доп. настройка через robots.txt