Да мне бы просто собрать инфу. Просто типа вот гугл органика, столько-то переходят и на 1000 человеке получается контракт (без вашей темы).
Понятное дело, что он может быть подписан через год, но заполнена форма была в такую-то дату, и через год мы получили 2 контракта, после заполнения в один месяц. Т.е. делим весь траф на 2 и смотрим, что там за траф был, в этом месяце, откуда была заполнена форма (и сколько мы слили на сайт трафика, чтобы были заполнены эти формы). Естественно, я не прошу вас писать тему, в которой вы работаете, просто абстрактные цифры.---------- Добавлено 13.03.2020 в 17:20 ----------
Да, я понимаю, что тут не все от трафика и человека с ним работающего зависит.
Ясно, спасибо
Допустим, но как я сделаю две версии английских, они будут одинаковые на двух доменах, но при этом одна будет под Германию на .de, а вторая будет под США на .com? И как я вообще это смогу разметить, это нормально, что я будут кидать по альтернейту на английскую версию на .de, с английской же версии на .com, и они одинаковые? И как я явно покажу пользователю это кидание с английской на английскую версии, типа у него для выбора будет два английских языка?---------- Добавлено 14.10.2019 в 13:10 ----------
Все, спасибо, я понял, сделаю все на одном домене типа /en-us/, /en-de/, /de-de/ и пропишу в альтернейте их регионы. Только не понятно, как лучше сделать выбор для пользователей языка, типа 3 варианта будет или типа того.---------- Добавлено 14.10.2019 в 13:55 ----------В справке только пишет, что страницы могут незначительно отличаться, а если они вообще не отличаются, страницы такие в топ норм двигаются? Просто разницы у пары страниц только будет в версиях /en-us/ и /en-de/.
В смысле, в консоли можно к префиксу языка прикрутить регион?
Спасибо, где и как - это вы про что?
Спасибо за ссылку, но вопрос в другом был, работает ли вообще этот рейтинг, и мне больше серпстат интересен?
Все заработало, оказалось, что в новых кампаниях нужно ставить какую-то цель (хотя бы посещение сайта). Раньше таких расширенных целей не было, и такой проблемы не возникало.
На каждой из страниц есть скопированный контент, который есть ещё на десятке страниц (это открытая инфа). Было изначально 14 млн. страниц в индексе. Желание удалить, т.к. контент скопирован (инфа из одного открытого американского гос. источника, которую можно копировать и она для этого и предназначена). Плюс отвалился трафик резко в марте после какого-то изменения гугла, ну и трафик только падает. Страницы уже где-то 5-6 месяцев отваливаются.
Все эти страницы закрыты тегом noindex, follow. Ну и пробовал закрывать все в robots.txt.
Стало ещё хуже, теперь он просто не ходит по страницам в сайтмапе и вообще не выкидывает ничего=(
Ясно, всем спасибо за ответы