Mric

Mric
Рейтинг
222
Регистрация
24.11.2005
imasiter:
Если не закроете, то рискуете, что как раз нужную страницу посчитают дублем и выкинут из индекса.

Ясно, спасибо

xVOVAx:
Нет конечно) с какой такой стати

Используйте метатег

Допустим, но как я сделаю две версии английских, они будут одинаковые на двух доменах, но при этом одна будет под Германию на .de, а вторая будет под США на .com? И как я вообще это смогу разметить, это нормально, что я будут кидать по альтернейту на английскую версию на .de, с английской же версии на .com, и они одинаковые? И как я явно покажу пользователю это кидание с английской на английскую версии, типа у него для выбора будет два английских языка?

---------- Добавлено 14.10.2019 в 13:10 ----------

xVOVAx:
Нет конечно) с какой такой стати

Используйте метатег

Все, спасибо, я понял, сделаю все на одном домене типа /en-us/, /en-de/, /de-de/ и пропишу в альтернейте их регионы. Только не понятно, как лучше сделать выбор для пользователей языка, типа 3 варианта будет или типа того.

---------- Добавлено 14.10.2019 в 13:55 ----------

В справке только пишет, что страницы могут незначительно отличаться, а если они вообще не отличаются, страницы такие в топ норм двигаются? Просто разницы у пары страниц только будет в версиях /en-us/ и /en-de/.

xVOVAx:
А как вы для одного домена собрались прописывать регионы в гугле?))))


Для указания языков и регинов используют hreflang

В смысле, в консоли можно к префиксу языка прикрутить регион?

freezy_mind:
Работает. Главное знать, где и как его применять.

Спасибо, где и как - это вы про что?

freezy_mind:
Ну в справке ж разжовано все...
https://ru.semrush.com/kb/261-keyword-difficulty-tool

Спасибо за ссылку, но вопрос в другом был, работает ли вообще этот рейтинг, и мне больше серпстат интересен?

Все заработало, оказалось, что в новых кампаниях нужно ставить какую-то цель (хотя бы посещение сайта). Раньше таких расширенных целей не было, и такой проблемы не возникало.

And-rey:
А как и что, вы там закрыли у себя по рекомендациям выше?
Весь сайт тегом "noindex" или в "robots.txt Disallow: /" ? =))



Вот у вас там несколько странное желание удалить из индекса, что зашло однажды неплохо ( вообще редкость большая когда, гугл более 2млн. страниц глотает). Одно дело страницы эти не существуют вообще физически, а когда они есть, но не индексировать их, то не факт что на фоне "многомиллионности" страниц сайта, всё исчезнет мигом. Они же всё одно у вас есть доступные по url, известными ранее для гугл. Он их продолжает видеть как 200 OK.

Т.е. в чём сама причина/желание удалить проиндексированное, что там такое у вас: неинтересные статьи, или это мусорные страницы пагинаций, фильтров, сортировок?

На каждой из страниц есть скопированный контент, который есть ещё на десятке страниц (это открытая инфа). Было изначально 14 млн. страниц в индексе. Желание удалить, т.к. контент скопирован (инфа из одного открытого американского гос. источника, которую можно копировать и она для этого и предназначена). Плюс отвалился трафик резко в марте после какого-то изменения гугла, ну и трафик только падает. Страницы уже где-то 5-6 месяцев отваливаются.

Все эти страницы закрыты тегом noindex, follow. Ну и пробовал закрывать все в robots.txt.

aleksandrbol:
закрыть весь сайт, а потом по чуть чуть открывать нужное. Но я такое не делал, как вариант для экспериментов.

Стало ещё хуже, теперь он просто не ходит по страницам в сайтмапе и вообще не выкидывает ничего=(

Ясно, всем спасибо за ответы

yvcom:
Экспериментов таких нет и быть не может, а если даже и были, то врядли чем то конкретным закончились потому что уже не первый год ссылки - стали одним из множества почти равноценных факторов, хоть и продолжают быть немного особенным. Ссылки это далеко еще не все ...




врядли кто либо скажет что конкуренты не делают ошибок.
А если взять в пример плавающую выдачу - то ТОП - это вообще абстракция.
Лучше 1К уников чем ТОП1 без никого ))))



Значит нужно хорошенько подумать - почему они этого не делают? Может то просто информационники (сч и нч) по которым много бестолкового трафа?



Не стоит фанатично следовать по их стопам.
Нужно сделать лучше, проследив и позаимствовав их опыт.
Но с Умом!

Конкуренты из топа - тоже часто выпадают, ... как только новый фильтр вводят - так сразу и веток здесь больше становится.
Главное чтоб их ошибки и тебя туда же не утянули.
А чаще бывает что их - сами "Фильтры" "жалеют" потому что они старенькие и рейтинговые, а вот мелких - не жаль.
Делай по своему и с умом, а они - только впример, и не более того.

Что значит лучше, после внедрения брейн ранка, в топ сложно попасть, если нету схожего ссылочного профиля с конкурентами из топа, т.к. он основан на нейронных сетях, я и спрашиваю в связи с этим какой процент схожести нужен, или для нк тем не нужно так заморачиваться?

Всего: 594