Такое иногда бывает.... повреждается файл с контактами...
Просто переустановите ICQ (на всякий случай сделайте резервную копию или устанавливайте в другую папку)...
А лучше поставьте QIP (хотя и он таким страдает)
Это ужас... Люди ехали отдыхать...
Я как раз сейчас учусь в автошколе, поэтому работаю часто с правилами….
В них четко сказано, что «на горной дороге запрещено двигаться с неработающим двигателем и выключенными сцеплением или передачей».
Вот именно в связи с тупым игнорированием подобных, очень Важных и написанных кровью людей, правил ДД и с целью экономии топлива страдают обычные пассажиры (зачастую водители, если их так можно называть, остаются живы).
Несколько лет назад был случай, когда поезд снес битком набитый автобус с пассажирами (водитель решил проскочить при закрытом шлагбауме)... почти все погибли, а водитель (снова отмечу, что если его так можно называть) остался жив и оправдывался тем, что за стоящими пассажирами он не увидел приближающегося поезда...
Действительно, сайты не клеятся а становятся зеркалами основного...
Но вот Ваше утверждение о том, что сайты не могут стать зеркалами по причине разных доменов в корне не верно.
Склеиваются сайты с одинаковым (или почти одинаковым) контентом.
Сайты их Вашего примера, при условии того, что контент на них разный, клеятся не должны.
Чем более разнообразный контент на сайтах тем меньше вероятность их склейки.
Teleport Pro.
Программа позволяет скачивать сайты, причем как полностью (при этом будет создан точный дубликат, или "зеркало" сайта, с полной структурой подкаталогов и всеми файлами) так и отдельные их элементы
ИМХО, преимущества вышеописанных мной методов:
- для работоспособности предложенных выше (классических) вариантов должны существовать запрашиваемые файлы и каталоги (file1.html, file2.html и т.д.). Мой вариант реализации наличия таких файлов не требует (страницы строятся по шаблонам).
- если использовать подобный принцип, то легче строить большие сайты (парсер отвечает практически за все). Проблема лишь в написании подобного парсера и выработки алгоритмов.
Я к этому способу уже насколько привык, что создание обычного сайта на «сухом» html времени забирает больше, нежели динамичный (с полноценной имитацией статики).
Первый вариант - это использовать отдельный скрипт для обработки запросов *.html
Не работает с виртуальными директориями.
Реализация:
.htaccess
RewriteEngine on RewriteBase / Action html_parser "/html_parser.php?" AddHandler html_parser .html
В корне создаете файл html_parser.php, который обрабатывает запросы
$str=htmlspecialchars(substr(strtolower(getenv("QUERY_STRING")),0,250));
При этом в $str будет адрес запрашиваемой страницы.
Далее дело техники…
Второй вариант - обработка всех запросов к несуществующим папкам и файлам (кроме указанных исключений: gif|jpg|jpeg|png|css|js|cgi|txt|ico):
RewriteEngine on RewriteCond %{REQUEST_FILENAME} !\.(gif|jpg|jpeg|png|css|js|cgi|txt|ico)$ [NC] RewriteCond %{REQUEST_FILENAME} !-d RewriteCond %{REQUEST_FILENAME} !-f RewriteRule ^(.*)$ /html_parser.php?www=$1 [QSA,L]
При этом в $www будет адрес запрашиваемой страницы.
Возвращаемый сервером заголовок, кроме всего прочего, можно посмотреть здесь: http://www.be1.ru/stat/
Смотрите самый нижний блок...
ИМХО, если редирект 301 - то учитываются.
В итоге у Вас получится, что одна и та же статья находится по адресу:
myproduct/article/ и mycompany/.../myproduct/article/ , верно?
Второй вопрос: зачем Вам это, какой в этом смысл? не хочу лезть в Ваши дела, но не лучше ли заняться более важными вещами по оптимизации сайта?