Разместился на всех сайтах. Сайты приличные. На некоторых анкоры дублированы в альтах картинок. Не заспамлено другими внешними ссылками. Все хорошо.
Разместился на 12 новостных. Сайты приличные. Сделано быстро. Одну возникшую ошибку поправили. Все в порядке, ждем индексации.
Разместился на всем пакете. Сделано за 1 сутки, в точности то, что обещано (тематический абзац в статьях). Сайты нормальные, и, что важно, не загружены другими внешними ссылками. Спасибо.
Разместился на всех 3 сайтах. Все произошло за 1 день - три небольшие, но вполне вменяемые статьи с нужными ссылками и анкорами в заголовках. Всем доволен. Ждем индексации.
Хех, я не сообразил, что так можно - затупил, сорри. :)
По новой функции перелинковки - там так и должно быть, что для каждого акцептора только один донор? Имхо, имеет смысл давать несколько доноров, поскольку не с каждой страницы бывает удобно ставить ссылку, а для лучшего продвижения каких-то запросов можно бы поставить и несколько ссылок.
К тому же оно, наверное, не проверяет, нет ли еще ссылки с данного донора на акцептор? (если нет, то полезно было бы проге заглянуть на сайт и проверить).
И еще, нельзя ли сделать экспорт этих рекомендаций в какой-то csv? (А то пользуюсь 2003 офисом, и проблемы с открытием xslx), и все равно эту информацию сначала надо обработать скриптом.
Не срабатывает обновление. Файл new/new.zip создается нулевой, и процесс останавливается с ошибкой "Некорректный зип".
По тупости своей не совсем понимаю:
- Почему именно два набора исходных слов?
- Как глубоко парсит?
Веб-архив, вроде бы ожил. Как у нас насчет новой версии?
Возможно. Опыт работы с вебархивом у меня в самом деле маленький, так что может и в самом деле там много тонкостей, о которых я (а хуже, если ТС) не знаю. Но с точки зрения скорости скачивания предположу, что равных точно не будет. :) Просто потому, что здесь она фактически ничем изнутри не ограничена.
Нужно ведь получить работоспособный готовый сайт. Так что либо сохранять исходную кодировку, либо править в хедере (что было бы диковато).