goacher

Рейтинг
124
Регистрация
07.09.2008
xegen:
Нечего не будет, пусть будет открыт.

я так понимаю эффекта никакого от него не будет со стороны seo? только трафик?

Hush:
Парой проще поставить цель на просмотр определённых страниц, к примеру с маской. Метки нужны когда физических страниц не существует, либо для отслеживания конкретных действий пользователей (клики, регистрации)

в данном случае мы ставим на регистрацию, но в регистрации все передается методом POST и ссылка не меняется. Поэтому вместе с выводом сообщения об успешной регистрации вставили вызов функции я.метрики и получилось то что надо

iotty:
Ещё название цели нужно задать в самой метрике.
И там где-то было написано, чтобы название не пересекалось с id элементов (а то возможны ложные срабатывания).

Типа 'YANDEX_METRICA_ORDER'.

ну да, это понятно. Это все прописано.

Проблема оказалась в неправильном вызове.

правильный код


<script type="text/javascript">
window.onload = function() {
yaCounterID.reachGoal('ID2')
}
</script>
easywind:
А откуда бот про это узнает если они в роботс для сканирования закрыты?
Вам HOSTiQ правилно пишет варианты. Самый простой - откройте в роботс, гуглебот получит 404 и страницы вывалятся из индекса.

а вот как оно) если закрыто в роботс - то гугл старые страницы оставляет а новые не сканирует.

Я через запрос на удаление URL - делаю удаление каталога, должно сработать!

HOSTiQ:
Robots.txt не дает полный запрет индексации в google. Об этом они писали у себя в support.google.com.

Удаляйте весь ненужный каталог через инструменты для вебмастеров (как это сделать написано тут), а также добавьте метатег noindex в head-секцию данных страниц (если это конечно возможно).

по тем ссылкам сейчас вообще 404 стрница висит. А кэш еще 2013 года со старыми страницами

ссылок много, есть только их маска, а по маске, насколько я знаю нельзя удалять страницы

---------- Добавлено 07.03.2014 в 17:27 ----------

нашел - удаление каталога, удаляет все подстранички папки.

Cell:
Угу, и на каждый еще и по прокси заходить. В разное время и в разные дни месяца.
А лучше - попросить друга, а то Яндекс может сличить характерные нажатия на клавиатуру и забанить.

По сабжу - неудивительно, что десяток абсолютно одинаковых сайтов залетели под какие-то фильтры. Зачем было делать миллион поддоменов? На одном было нельзя?

А как на одном домене присвоить несколько регионов нужных, если сайта нет в каталоге яндекса? с этой целью и создавались поддомены

---------- Добавлено 19.01.2014 в 11:06 ----------

dlyanachalas:
А мозг включить? Платону приходит письмо о том, что выпало 5 одинаковых сайтов, с просьбой снять АГС 🤪

платону в одном письме и написали(

я думал это нормально, контент уникальный, регионы разные, опзмещены на одной доменной зоне.

dlyanachalas:
Ну какой аффилиат, смешно) Вам туда залили шел и дор (если это не вы сами). Остатки этого дора ещё видны в индексе. В итоге Яндекс вас побанил.

Главной нет, вероятно, из-за разной структуры вашего сайта и дора

да, был шел и залили сайт в папку и прописали sitemap к нему, структура отличалась.

C моей стороны после удаления только ждать или какие-то действия можно предпринять дополнительно?

razumovsu:

структура таже, но контент разный. На одном сайте страниц 7 осталось. думаю аффилиат. Нужно писать Щукину

Все верно!

Платону уже отправил письмо.

dlyanachalas:
Не бывает даже двух одинаковых сайтов. Где-то вам повезло, где-то нет. А причину вы сами назвали.

а я всетаки склоняюсь, к тому, что причана - недавний вирус на сайте. Т.к. иногда проскакивают вирусные странички (уже убраны!) во время шторма яндекса.

dlyanachalas:
Не приходило в голову, что это взаимосвязано? ;)

я думаю нет. У меня есть аналогичные сайты, где ссылки не покупались - их яндекс не затронул.

Всего: 187