Mric

Mric
Рейтинг
225
Регистрация
24.11.2005
Cuys:
Вам такую схему никто не расскажет из здравомыслящих ребят.

p.s. Сам работаю в B2B

Да мне бы просто собрать инфу. Просто типа вот гугл органика, столько-то переходят и на 1000 человеке получается контракт (без вашей темы).

Понятное дело, что он может быть подписан через год, но заполнена форма была в такую-то дату, и через год мы получили 2 контракта, после заполнения в один месяц. Т.е. делим весь траф на 2 и смотрим, что там за траф был, в этом месяце, откуда была заполнена форма (и сколько мы слили на сайт трафика, чтобы были заполнены эти формы). Естественно, я не прошу вас писать тему, в которой вы работаете, просто абстрактные цифры.

---------- Добавлено 13.03.2020 в 17:20 ----------

SmileP:
Для "норм сумм" может понадобиться не один месяц переговоров :)
Причем бегать за покупателем будет продавец в прямом и переносном смысле.

Да, я понимаю, что тут не все от трафика и человека с ним работающего зависит.

imasiter:
Если не закроете, то рискуете, что как раз нужную страницу посчитают дублем и выкинут из индекса.

Ясно, спасибо

xVOVAx:
Нет конечно) с какой такой стати

Используйте метатег

Допустим, но как я сделаю две версии английских, они будут одинаковые на двух доменах, но при этом одна будет под Германию на .de, а вторая будет под США на .com? И как я вообще это смогу разметить, это нормально, что я будут кидать по альтернейту на английскую версию на .de, с английской же версии на .com, и они одинаковые? И как я явно покажу пользователю это кидание с английской на английскую версии, типа у него для выбора будет два английских языка?

---------- Добавлено 14.10.2019 в 13:10 ----------

xVOVAx:
Нет конечно) с какой такой стати

Используйте метатег

Все, спасибо, я понял, сделаю все на одном домене типа /en-us/, /en-de/, /de-de/ и пропишу в альтернейте их регионы. Только не понятно, как лучше сделать выбор для пользователей языка, типа 3 варианта будет или типа того.

---------- Добавлено 14.10.2019 в 13:55 ----------

В справке только пишет, что страницы могут незначительно отличаться, а если они вообще не отличаются, страницы такие в топ норм двигаются? Просто разницы у пары страниц только будет в версиях /en-us/ и /en-de/.

xVOVAx:
А как вы для одного домена собрались прописывать регионы в гугле?))))


Для указания языков и регинов используют hreflang

В смысле, в консоли можно к префиксу языка прикрутить регион?

freezy_mind:
Работает. Главное знать, где и как его применять.

Спасибо, где и как - это вы про что?

freezy_mind:
Ну в справке ж разжовано все...
https://ru.semrush.com/kb/261-keyword-difficulty-tool

Спасибо за ссылку, но вопрос в другом был, работает ли вообще этот рейтинг, и мне больше серпстат интересен?

Все заработало, оказалось, что в новых кампаниях нужно ставить какую-то цель (хотя бы посещение сайта). Раньше таких расширенных целей не было, и такой проблемы не возникало.

And-rey:
А как и что, вы там закрыли у себя по рекомендациям выше?
Весь сайт тегом "noindex" или в "robots.txt Disallow: /" ? =))



Вот у вас там несколько странное желание удалить из индекса, что зашло однажды неплохо ( вообще редкость большая когда, гугл более 2млн. страниц глотает). Одно дело страницы эти не существуют вообще физически, а когда они есть, но не индексировать их, то не факт что на фоне "многомиллионности" страниц сайта, всё исчезнет мигом. Они же всё одно у вас есть доступные по url, известными ранее для гугл. Он их продолжает видеть как 200 OK.

Т.е. в чём сама причина/желание удалить проиндексированное, что там такое у вас: неинтересные статьи, или это мусорные страницы пагинаций, фильтров, сортировок?

На каждой из страниц есть скопированный контент, который есть ещё на десятке страниц (это открытая инфа). Было изначально 14 млн. страниц в индексе. Желание удалить, т.к. контент скопирован (инфа из одного открытого американского гос. источника, которую можно копировать и она для этого и предназначена). Плюс отвалился трафик резко в марте после какого-то изменения гугла, ну и трафик только падает. Страницы уже где-то 5-6 месяцев отваливаются.

Все эти страницы закрыты тегом noindex, follow. Ну и пробовал закрывать все в robots.txt.

aleksandrbol:
закрыть весь сайт, а потом по чуть чуть открывать нужное. Но я такое не делал, как вариант для экспериментов.

Стало ещё хуже, теперь он просто не ходит по страницам в сайтмапе и вообще не выкидывает ничего=(

Ясно, всем спасибо за ответы

Всего: 595