Вернете все средства или выплаченные вам биллингом? :)
Хотелось бы проверить на всякий случай :)
Сам хоть понял, что сказал. А если твоя не первая?
Сегодня по конверту очень плохо. Скачивание софта, 5 баксов, ратио по всем потоком 1:321.
Поставил на некоторых оплату на сайте.
А так и есть. Стоимость настраивается только для России. Для Украины и других стран система выбирает оптимальные варианты сама (по крайней мере мне так сообщили в тикетах).
Сегодня у меня нормальный день, ратио установилось на отметке 1:75, что считаю довольно нормальным результатом, заказал досрочку - получил :)
Все нормально пока, работаем дальше и еще не вечер :)
А у меня пока что сегодня конверт хороший.
В принципе может и случайность, трафа не так много, сливаю в сутки 4 тысячи уников.
На одном из потоков даже ратио стало 1:53 :)
Стояла оплата на сайте, сейчас для теста поменял на софт, позже отпишу как конверт.
Проверенный и рабочий метод, который недавно использовал.
Надо сделать 3 вещи:
1. закрыть в robots.txt
2. сделать на них 404
3. удалить через панель вебмастера.
Гарантировано удаляются от 1 до 3 суток. Я проверял.
У меня тоже до этого был убунту и там действительно все определилось автоматом. Это понятно, что на роутере надо настраивать - там все настроено. У меня же работает второй ноутбук, на котором fedora, по вайфаю, да и этот на котором раньше была убунту без проблем работал. Значит на роутере точно все нормально.
В общем проблему уже решил. Оказалось, что ядро ниже версии 28 не поддерживает вайфай (еще зависит от производителя чипа). Поэтому просто обновил ядро до версии 2.6.32-bpo.5-686 и после перезагрузки вайфай сам заработал.
Тему можно закрывать.
С чего вы взяли. С каких это пор дубли это нормально. Есть даже буржуйская статья на тему исследования сабжа (к сожалению ссылку сходу не вспомню), где в выводах говорилось примерно следующее.
Логика гугла такая:
Почему я должен индексировать дубли, да еще и дубли с одного и того же сайта, забивая свои винты повторяющимся контентом :)
То есть как бы дубли в рамках одного сайта это даже похуже копипаста из сети...
Даже частичные дубли - это уже зло, а полные - это уже имхо большая проблема.
Что-то в этом духе.
Сделал следующее.
Настроил домен mail.site.ru с robots.txt с содержанием:
User-agent: *
Disallow: /
Также позаботился о том, чтобы морда поддомена отвечала 403 (может было бы еще лучше 404, но как это сделать не знал), остальные страницы вида mail.site.ru/... при этом отдавали 404.
Затем добавил в ПВ гугла и яндекса поддомен. Воспользовался инструментом удаления страниц. Для обеих пс удалили весь сайт mail.site.ru. В яндексе пока ничего не выпало, но и апдейтов еще не было. В гугле все супер - все дубли (17 тысяч страниц) через 2 дня выпали. Жду яндекс.
П.С. Сложилось впечатление, что общаюсь сам с собой :) Но описал решение проблемы - возможно кому-то пригодится...
Это понятно. Хотелось бы прискорить этот процесс. Сайт то просел.
Все таки сделал пока так: временно восстановил в днс запись mail, чтобы добавить поддомен mail.site.ru в панели вебмастера яши и гугла, подтвердил права метатегом и добравлся до инструментария удаления. Но проблема в том, что и в яндексе и в гугле есть возможность ввода только по одному урл-у. А что делать, если страниц несколько тысяч?
Как отправить на удаление сразу группу страниц, может можно по маске?
Может кто сталкивался с подобным.
Вопрос в том, где они их ставят?