Dynadot
Так поди вы сами выбрали СМС, выбирайте авторизацию по google authenticatorВ динадот можно и без кода, ничего не выбирать
Кроме модераторов, еще и боты ходят.
PS Нет, не нейронку для ответов)) Судя по всему:- модераторов много, один приходит отвечает на ваш запрос- вы ему пишете уточнение, изменния и тд, но приходит другой модератор, который читает только ваше новое сообщение. Сегодня общался так с одной тех поддержкой, пока дошло, что нужно в сообщении писать все то, что раньше писал, т.е суммировать в запрос всю переписку
Так боты кушают бюджет. Нужна максимальная фильтрация по параметрам, где есть возможность
Блокируют если есть бототраф, без разницы откуда
Просто если есть сайт в вебмастере нужно тупо зарегистрироваться в рекламных сетях яндекса и ничего не делать. 😉
Есть такое, но делать надо))С максимальной фильтраций бото трафа
С включенным ретаргетингом на определенное условие...
Выходит что смысла особого в этом нет.
Написал же, что смысл есть ( 25%, без рекламы). Но согласен, что в основном тратят свое время без профита, так как с каждой социалкой нужно уметь работать, т.е каждую изучать досконально
PS как пример G+, на серче было доказано, что траф с него был нулевой. Согласен что нулевой, но при этом на моих сайтах с него было до 40% трафа, жаль убили))Вот такое вот противоречие с нулем))
100к группа, актуальная, живая, никаких уловок по расскрутке .
Какой в этом смысл тогда ? Получается что по большей части пользователи создают в ФБ группы, поддерживают их на бесплатной основе не имея никакого с этого профита.
Значит им не нужен профит с групп.25% трафа с ФБ идет
Неверный вывод. Можно не делать, но результата с возрастом может быть два: в ТОП или на ДНЕ
Все верно - с возрастом..... Но неверный вывод - нужен не возраст, а всего лишь один фактор, который может накопиться с возрастом... или не накопиться
По большому. счету, это не хостер, который меняет на свое усмотрение .htaccess
А если сделать редирект в .htaccess? Чтобы урлы с параметрами направлялись на урл без параметров?
Наилучший вариант, на все случаи, в том числе и против ссылочного спама
PS На будущее! Как тут расписали эксперты на серче, Яндекс учитывает некоторые правила в robots.txt. Это такНо, вначале индексирует, то что не нужно. Может выкинут индексную страницу с каноникал(!). Ну а затем через какое-то время - удаляет ненужное, в связи с правилом robots.txt. Ну а основная страница вместе с трафом уже полетела...Оно вам надо, такой учет правил robots.txt???
За счет клоакинга или как?
Нет. В комменте выше есть направление на ответ