Так пусть хостят, раз ссылка есть. :)
Мне-то от отдачи статики нагрузки почти нет, а трафика там немного с картинок.
melkozaur, ясно. Я поэтому и разбил на 2 вопроса - с a href и без, только img src.
Т.е. то, что с a href dofollow можно оставлять? Или всё-равно как-нибудь лучше их банить в таких случаях? Просто если их сейчас забаню, думаю просто скопируют картинки к себе и всё. А так хоть ссылка есть.
Разве? Не смотря на наличие анкора? Даже в вебмастере видны бэки с этих сайтов.
Вроде конструкция вида <a href="mydomain"><img src="mydomain"></a> передает вес.
klamas, думал об этом, но для резервного сервера столько оперативки не нужно. )
Да и резервный у меня и так есть - часть сайтов на 1ом VDS, часть на 2ом. Бэкапы и так друг-другу заливают.
Вообще тариф только на время и в ограниченном кол-ве был. Поэтому и взял "про запас".
Так обычно за те же деньги 1 Гб RAM максимум идет.
EDIT: А видимо не так понял вас. Цена 200 руб. постоянная на весь срок пользования VDS (т.н. recurring discount). Но если откажусь - больше такого тарифа не будет. Ну во всяком случае до следующей акции.
UPLOAD_ERR_NO_TMP_DIR
Value: 6; Missing a temporary folder. Introduced in PHP 4.3.10 and PHP 5.0.3.
http://www.php.net/manual/en/ini.core.php#ini.upload-tmp-dir
Попробуйте в скрипте $uploaddir = "avatars/"; поменять на полный путь к каталогу для загрузки на хостинге (должно быть указано, в панели хостера обычно).
Чтобы что-то вроде такого было:
$uploaddir = "/home/users/yourlogin/public_html/avatars/";
EDIT: Хотя вообще судя по тому, что tmp_name пустое, проблема может быть не в этом.
Это не ошибка, а print_r массива. Что там такое в вашем скрипте и что за ошибка, не видя скрипта никто не сможет ответить.
Наоборот, скорее всего мало, но надо такие случаи находить как можно скорее.
А софт/сервис отдельный, чтобы просто выдачу агрегировать и отсортировать в простом виде, чтобы даже секретарша смогла это дело быстро проверить.
Можно конечно написать и свой парсер выдачи под это дело. Просто думается возможно что-то готовое и более-менее подходящее под это дело уже есть.
wwwwww, ну давайте для начала так - нужен софт, который сможет делать по определенным шаблона запросы по яндексу и гуглу. Выдачу по всем запросам он агрегирует и уже на сайте ищет упоминания определенных ключевых слов. Далее он уже агрегирует данные по доменам и сортирует по частоте упоминания ключевиков и выдает это в виде списка.
Примерно так, если вы хотите точно. Не обязательно чтобы всё именно так было, но что-то похожее хотя бы. Я поэтому изначально задачу так строго и не описывал, потому что хотел выслушать любые советы по более-менее подходящему софту/сервисам.
wwwwww, наверное повторение определенных комбинаций на нескольких страницах сайта (название компании), за исключением определенных доменов новостных сайтов.
Я и сам толком не представляю как тут точно искать, т.к. неизвестно что может появиться.