Если надо заменить ВСЮ строку с вхождением определенной фразы - надо писАть программку.
Попробуйте в Word создать макрос (Сервис -> Макрос -> Начать запись),
проделать нужные действия (поиск и стирание строк).
Потом:
Сервис -> Макрос -> Остановить запись
Сервис -> Макрос -> Макросы -> Выполнить
Макросы можно и по-отлаживать, если что не так - они на визуал-бейсике.
Если владеете Macropmedia Dreamweaver - там можно регулярные выражения использовать для этих целей.
Понятие валютные операции распространаются и на использование валюты РФ в качестве платежа между нерезидентом и резидентом.
Для валютных операций на сумму свыше 50 000$ требуется оформление паспорта валютной сделки.
Освобождает ли от валютного контроля прогон финансов через Рапиду - вопрос открытый.
Банк, как орган валютного контроля, об этом просто так не узнает - они ловят переводы со счетов нерезидентов по номеру расчетного счета 71####.
Но правовой сути взаимоотношений это не меняет :)
Тут я несколько не согласна с _Ad, что "валюта не доходит" - меня банк трепал на счет оформления паспорта валютной сделки на клиентов (представительства а/к Узбекские авиалинии, Люфтганза и одного немецкого банка), которые платили за Интернет по безналу в РУБЛЯХ.
terrell, вот свежие рекоммендации самого Google. Обратите внимание на
Если не подействует - остаётся крайняя мера: напишите на этих страницах свои личные данные и отправляйте телегу в Гугл.
Так - HTML-код неправильный и невалидный. Полистайте старую тему все про noindex - там есть много умных мыслей.
А вообще - лучше вообще не используйте noindex, имно всё это несущественные глупости.
Это далеко не факт, в 2007 году был ещё как чувствителен (если кто не помнит - BigBrother был тогда сотрудником Яндекса).
И да, какую вложенность имеете ввиду - в DOM-модели или вложенность "в самого себя": сколько раз открыл, столько и закрыл?
robots.txt - как раз ничего не гарантирует, это лишь одна из рекомендаций для ПС.
Google на ура индексирует страницы, закрытые роботсом, но на которые стоят внешние ссылки (внешняя ссылка - другая рекомендация для ПС).
PS: Есть ещё как минимум 3 способа более гарантированно закрыть контент страницы (или его часть) от индексации.
Там в топике спорили, кто в карточке сайта может поставить флажок АГС - только "автомат" или и "модератор выдачи" тоже.
А как в вашу теорию вписывается факт моментального удаления из поиска персональных данных, например, смс мегафона и жд билетов?
Все выкинули из индекса, несмотря на отсутствие запрета в robots.txt, и при этом не задели остальные страницы сайтов.
PS: За мои 5 лет в СЕО встречалось немало фактов, позволяющих сделать вывод о широких и гибких возможностях Яндекса по ручной модерации выдачи.
Так "само" делается с тех пор, как ПС стали URL считать контентом страницы.
Если ключи запроса есть в URL - они подсвечиваются.
Интересно, как Вы себе это представляете после заявления ТС:
То есть, Вы напрочь отметаете теорию о ручной модерации сайтов, достигших предельного количества страниц в индексе?
Dimank, ещё есть мнение, что для индексации большого количества страниц, сайту нужен определённый статвес, то есть внешние ссылки.
У меня предел 7-10 тысяч страниц практически без внешних ссылок (с 4-х закладочников).
И контент страниц тоже важен: объявления очень плохо держятся с индексе, рерайченные новости - тоже недолго.
Unlikerm, была тема на эту тему от Андрея Камчеса.
АГС может накладываться и вручную по факту просмотру сайта модераторами.