Гениальная идея! Учитывая моё имя это будет сделать не сложно.
А что за данные, только имя и фамилия или еще что?
Вот именно это я и хотел узнать, т.е. имя в аккаунте Гугл будет совпадать с паспортным и с указанным в рапиде. А вот прописка и место доставки пин-кода будут различаться.
Но не будет ли засады со стороны Рапиды, что они передадут информация о том, что аккаунт вебмани, куда перечисляются деньги уже участвует в другом аккаунте рапиды и Адсенс соответственно?
Я тут еще темку почитал http://adsensetalk.ru/archive/index.php/t-333.html? думаю купить себе простенький ноут под второй аккаунт и выходить через прокси типа 4proxy.de в гугл чтоб не было ничего общего.
Вы меня конечно простите, но это звездец. Нам тут сказки рассказывают как у нас офигенно вырастут доходы, хотя уже минус 10% мы получили. Так еще надо будет снимать с посещаемых страниц УЖЕ купленные ссылки, увеличивать цены и ЖДАТЬ когда их раскупят. И ЕСЛИ их КОГДА-ТО раскупят по ПОВЫШЕННОЙ цене, то тогда возможно мы отобьём съеденные 10% и даже может что-то заработаем. У меня, например, на аккаунте десятки тысяч страниц. Вы мне охрененный геморрой добавили, отняли 10% и впариваете сказки. Это форменное безобразие окупать растущую конкуренцию на рынке и безграмотный менеджмент за счет вебмастеров.
Как массово удалить все УРЛы, где нет текстов?
А то в пакетных фу-ях "тексты" есть кнопка "Выделить все URL'ы, где нет свободных текстов", но нет кнопки Удалить УРЛ.
А в разделе работы над УРЛами приходится их по одному выделять, что не есть удобно.
IE 11 и на ноуте и на компе. Спасибо! Стало вряд. Хотя кривенько, но все ж в разы лучше, чем было. Fuckin' IE!
Спасибо !
Ну так там же написано follow...
Яндекс, например, нормально понимает, что Page индексить не надо, а вот страницы куда они ссылаются (конечные статьи 3 УВ) надо. Это у меня сделано, чтобы нечеткие дубли не плодить.
Вопрос. Добавил сайт в сапу, у него на страницах пагинатора /page/ стоит директива
<meta name="robots" content="noindex, follow"/>
При этом индексатор сапы почему-то не идет по ссылкам на этих страницах и из-за этого съел только малую часть страниц.
А не сделали еще примерное вычисление коммерческих и не коммерческих запросов?
Ну и когда вы завершите наполнение? А то простой уже 42 дня.
sitemap generator этот http://4proxy.de/index.php?q=aHR0cDovL3dvbmRlcndlYndhcmUuY29tL3NpdGVtYXAtZ2VuZXJhdG9yLw%3D%3D&hl=2ed