Есть разные библиотеки для работы с mp3, в том числе на php.
И поэтому у вас на сайте так много текстов на английском? В том числе соглашение :)
solaso, хорошая машинка!
А чем "ссылка с меню" отличается от "прямой ссылки" ?
Если у вас в первом случае использовался JavaScript, то он может быть не у всех включен.
451 мойсайт.ру: Таймаут сервера имён
Проверьте, какие dns-ы использует сервер, через который отправляется почта, и живы ли они.
Потом проверьте, живы ли dns-ы вашего домена и отдают ли они правильную информацию.
Запустите второй sshd на другом порту с другим конфигом.
Да не в кеше, а в хеше, который формируется при чтении конфига.
Вот тут написано, как он его формирует, и как он по нему шарит, при получении http-запроса:
http://httpd.apache.org/docs/2.2/vhosts/details.html
И к тому моменту, когда сервак получил http-запрос и прочесал весь этот хеш, он, разумеется, знает, есть ли в конфигурации тот хост, который запрошен в заголовке "Host:"
Странно, что нельзя какой-нибудь одной директивой взять и попросить его посылать нафиг все хосты, которые он не знает.
Дык в том и беда, что если дополнительных усилий не приложить и не создать дефолтные хосты для всех айпишников, то описанная мной схема будет работать :)
(при условии, что у каждого юзера свой ip)
Что пишут в логах?
Они у него все в хеше. У апача, во всяком случае.
Апач же при чтении конфигурации берёт все айпишники, которые числятся как NameVirtualHost, и пихает их в хеш вида
{айпишник}=>[список структур virtualhost-ов, которые на нём висят]
И при получении запроса на какой-то айпишник (с указанным заголовком Host), прочёсывает этот список в поисках виртуального хоста с подходящим именем. Если не находит, то использует первый.
Так что он это отлично знает.
Дубликатов сайта с этого айпишника :)
Теоретически, можно, не утруждая себя работой, вот таким макаром сделать дубликаты разных сайтов на своих доменах, и если через какое-то время они обрастут ссылочной массой и тицами, можно уже сграбить и торговать ссылками )
Ну это как вариант.
Вот ещё вариант вредительства.
Можно сделать какое-то количество таких дубликатов и скормить их поисковым системам, и роботы будут создавать паразитную нагрузку. Т.к. фактически сайт один, а для роботов это разные сайты, которые непременно нужно проиндексировать :)
И такой ещё хак.
Если клиенту на виртуалке выдаётся выделенный ip, но ограниченное количество виртуальных хостов, то он может создать один виртуалхост, нацелить на этот ip ещё сотню доменов и развести их по разным директориям с помощью .htaccess :)
Всё верно :) Чисто академический интерес. А как с этим бороться — известно.
Просто мне это наоборот кажется нелогичным, когда сервер отдаёт то, чего у него как-бы и нет :)
Почему сервер Яндекса мне отдаёт "HTTP/1.1 200 OK", если я спрашиваю у него хост "google.com", которого у него на самом деле нет?
Ведь теоретически, если кто-то возьмёт пачку доменов, и нацелит их A-записи на ip-адрес какого-либо сайта, на котором обсуждаемая ситуация не обрабатывается, то появится куча дубликатов.